PDA

View Full Version : Nvidia GeForce GTX 295, il nuovo riferimento


Pagine : [1] 2

Redazione di Hardware Upg
08-01-2009, 15:49
Link all'Articolo: http://www.hwupgrade.it/articoli/skvideo/2117/nvidia-geforce-gtx-295-il-nuovo-riferimento_index.html

Anno nuovo, scheda nuova. Nvidia presenta il nuovo riferimento prestazionale. Basata su una coppia di GPU GT200b, GTX 295 riporta in auge la scheda con due PCB, spodestando 4870X2 dal gradino più alto del podio

Click sul link per visualizzare l'articolo.

X1l10on88
08-01-2009, 15:56
WOW che bomba!

Rotzcha
08-01-2009, 15:56
Ottimo prodott, NV ha recuperato la vetta, e consuma anche meno rispetto alle dirette concorrenti. Sono curioso di testarla per vedere la rumorisità se è davvero bassa sarà la mia scheda per il prossimo anno.

Suhadi_Sadono
08-01-2009, 16:02
Povera Ati.....

Cristopher_secret
08-01-2009, 16:04
E' ovvio che la HD4870x2 ( che si paragona con 1 sola 280gtx ) stia molto sotto uno sli di 280gtx e la 295, quindi è un paragone sbilanciato. bella scheda ... però sarebbe bello se facesserò qualcosa di nuovo o più particolare anzi che riproporrere sempre le stesse cose, sia Ati che Nvidia.

Immortal
08-01-2009, 16:06
"Proprio nella giornata odierna AMD ha annunciato una riduzione nei prezzi delle proprie schede Radeon HD 4870 X2 sino alla cifra di 369,00€ IVA inclusa nel mercato nazionale."

Ottima notizia per tutti noi, w la concorrenza!

Ad ogni modo questa scheda mi pare abbastanza inutile, serve solamente a chi utilizza monitor con risoluzioni enormi ma non può permettersi una scheda madre con la doppia vga (sennò avrebbe già provveduto prima). Serve solo a nvidia per far vedere che stavolta è lei "che ce l'ha più lungo".

Aspetto con ansia le prime schede dx11 (da entrambe le parti).

Grey 7
08-01-2009, 16:10
bel mostro

Drakogian
08-01-2009, 16:10
Povera Ati.....

"La scheda sarà commercializzata sul mercato italiano con un prezzo consigliato di 499,00 euro....
Proprio nella giornata odierna AMD ha annunciato una riduzione nei prezzi delle proprie schede Radeon HD 4870 X2 sino alla cifra di 369,00€ IVA inclusa nel mercato nazionale."

Ovviamente per qualcuno 130€ di differenza non sono niente... ;)

halduemilauno
08-01-2009, 16:14
vale + di mille parole...
http://www.hwupgrade.it/articoli/skvideo/2117/4870x2_vs_gtx295.png
"Il margine di vantaggio medio della scheda GeForce GTX 295 sulla soluzione ATI Radeon HD 4870 X2 è pari al 28% alla risoluzione di 1280x1024, al 25% a quella di 1680x1050, al 26% a 1920x1200 e al 22% a quella di 2560x1600. Nell'analizzare tali risultati consigliamo di considerare solo le ultime due, in quanto sono quelle alle quali schede di questa potenza elaborativa devono venir utilizzate per poter beneficiare al meglio della potenza elaborativa che hanno a disposizione."
;)

Alucard83
08-01-2009, 16:16
Ho una domanda:

Essendo un possessore di una scheda madre con chipset X48 (quindi crossfire), se montassi questa scheda sulla mia mobo, non funzionerebbe?Funzionerebbe solo a metà (ovvero 1 solo core, in quanto servirebbe un chipset sli per funzionare correttamente?), oppure funzionerebbe al massimo in quanto singolo slot?

Mi chiarite questo dubbio per favore?

Futura12
08-01-2009, 16:17
Povera Ati.....

Non mi pare -.-' .

Fra l'altro ste schede sono di un noob clamoroso...sia Ati che nvidia lo scaldabagno mio consuma di meno.
Non servono a nessuno ste schede,una 260 216 o 4870 da 1Gb vanno spettacolarmente con tutti i giochi a 1920

totalblackuot75
08-01-2009, 16:18
CONSUMI TROPPO ELEVATI.........COSTI TROPPO ELEVATI.......SOLO UNA PROVA DI FORZA NEI CONFRONTI DEELA RIVALE STORICA ATI.......

Mister Tarpone
08-01-2009, 16:19
ottima rece.
cmq bella bestia... e consuma pure meno dell'altra dual..

Foglia Morta
08-01-2009, 16:19
Ho una domanda:

Essendo un possessore di una scheda madre con chipset X48 (quindi crossfire), se montassi questa scheda sulla mia mobo, non funzionerebbe?Funzionerebbe solo a metà (ovvero 1 solo core, in quanto servirebbe un chipset sli per funzionare correttamente?), oppure funzionerebbe al massimo in quanto singolo slot?

Mi chiarite questo dubbio per favore?

il chipset sli è sulla GTX 295 stessa. quindi funziona su ogni scheda madre

Gian92
08-01-2009, 16:20
Intanto la 4870 x2 non è performante come la gtx 280, ma è superiore per un buon 10-25%.
Inoltre la libreria DX11 sarà solo un aggiornamento di Vista, basta avere una scheda video DX10.1 polli, e cos'è tutta st'ansia di cambiare DX? Mah

Io aspetterò le nuove schede video decenti con GPU singola di nVidia, penso serie gtx 3xx.

Futura12
08-01-2009, 16:21
CONSUMI TROPPO ELEVATI.........COSTI TROPPO ELEVATI.......SOLO UNA PROVA DI FORZA NEI CONFRONTI DEELA RIVALE STORICA ATI.......

Strano non l'avrei mai detto:asd: stessa cosa dicasi al contrario eh;)

ndwolfwood
08-01-2009, 16:22
... ma da uno sli di GTX295 (magari 3) cosa viene fuori? :)

Futura12
08-01-2009, 16:22
... ma da uno sli di GTX295 (magari 3) cosa viene fuori? :)

un forno a legna.

Mister Tarpone
08-01-2009, 16:22
... ma da uno sli di GTX295 (magari 3) cosa viene fuori? :)

viene fuori una GTX590 :)

Dexther
08-01-2009, 16:23
Ottimo lavoro sotto il profilo dei consumi...

murdockkk72
08-01-2009, 16:23
bella scheda....
utile solo se serve a far abbassare i prezzi
comprero' quando si potra giocare agli attuali titoli ( e magari qualche futuro ) a 1900x1200
con una spesa di 150 euro (cioe l'attuale fascia media)
per giocare intendo intendo almeno 60 frame.....
aspetto paziente ;)

ABCcletta
08-01-2009, 16:25
un forno a legna.

ROTFL :D

Finora non avevo fatto caso ai consumi di queste schede. Mostruosi...
Dopo aver speso i 500 per una roba del genere ti costringono a sborsarne altri 300 per un ali da oltre 1KW.

murdockkk72
08-01-2009, 16:26
e 100 euro al mese sulla bolletta ;)

Grey 7
08-01-2009, 16:27
ma si sa che queste schede sono solo una mera prova di forza sia dall'una che dall'altra parte. A livello d'immagine è fondamentale dimostrare di "avercelo piu lungo". A livello pratico con una gts260 o una 4870 si sta belli comodi anche a risoluzioni non indifferenti ;)

Futura12
08-01-2009, 16:28
bella scheda....
utile solo se serve a far abbassare i prezzi
comprero' quando si potra giocare agli attuali titoli ( e magari qualche futuro ) a 1900x1200
con una spesa di 150 euro (cioe l'attuale fascia media)
per giocare intendo intendo almeno 60 frame.....
aspetto paziente ;)

mi sa che aspetterai a vita,i giochi si evolvono come l'hardware quindi non potrai mai giocare a 60fps in Full-hd con una scheda da 150 euro.

fukka75
08-01-2009, 16:28
C'è qualcosa che non mi torna nei grafici di confronto GTX295 vs. GTX280SLI per Crysis DX10: dite che ci sono pochi punti percentuali di differenza nel passare dalla prima alle seconde (addirittura che GTX295 è migliore), e poi nei grafici dei bench leggo 22fps/35fps @2560, 34fps/62fps @ 1920, 40fps/65fps @ 1680, 51fps/72fps @ 1280 (tutti i maggiori fps a favore di GTX280SLI), cioè rispettivamente +50% ca., +80% ca., +35% ca., +40% ca. a favore di GTX280SLI: quindi o avete toppato i grafici di confronto, o avete toppato i grafici dei bench (o io non ho capito niente :asd::asd: )

ghiltanas
08-01-2009, 16:30
a me oltre alla potenza di questa scheda video mi hanno colpito 2 cose:

l'efficienza dello sli nvidia è veramente elevato questo probabilmente grazie a driver migliori, sotto questo punto di vista, rispetto ad ati.
Altro punto il consumo, 40w di meno in idle e in full load a me nn paiono pochi, e questo è un altro punto su cui generalmente nvidia lavora meglio

Capozz
08-01-2009, 16:33
A me non torna una cosa sui consumi più che altro....una 4870 consuma meno di una GTX280, e quello si sa....allora come fa una 4870X2 a consumare più di uno sli di GTX280 ? :eek:

SwatMaster
08-01-2009, 16:33
Precisiamo che:

a) la 4870x2 è nata per battere la GTX280
b) la GTX295 è di una (semi)generazione avanti
c) la 4870x2 costa 130€ in meno della GTX295
d) il 25% in più di prestazioni non vale la differenza di prezzo
e) queste schede sono solo una gara "a chi ce l'ha più lungo", tra ATI ed nVidia
f) ricoprono una fascia ristrettissima di mercato
g) il dual-gpu non gode di un supporto software degno
h) in conseguenza dei tre punti immediatamente precedenti, si può benissimo dire che sono schede pressochè inutili
i) il podio dovrebbe andare a chi offre, nel mercato medio-alto, la soluzione migliore
l) ATI owns

Detto questo, la GTX295 rimane comunque una gran bella bestiolina. :D

murdockkk72
08-01-2009, 16:34
mi sa che aspetterai a vita,i giochi si evolvono come l'hardware quindi non potrai mai giocare a 60fps in Full-hd con una scheda da 150 euro.


beh io intendevo i giochi attuali
e magri qualcuno futuro ....speriamo che lo standard del giocatore medio che sta' sul 1280 x1024 o giu' di li si evolva

netcrusher
08-01-2009, 16:35
Povera Ati.....

Ma che povera ati e povera ati, poveri tutti noi che ci facciamo abbindolare da questa malattia delle performance inutili.......ed io dovrei spendere 500 euro per questa colossale presa in giro???? (presa in giro perchè a seguire usciranno le vga dx11 di nvidia non perchè non sia performante la scheda)....

seguite il consiglio di molti utenti saggi, vi basta una gtx260 o una hd4870 per dormire sogni tranquilli.......non regalate i vostri soldi solo perchè fanno questi esercizi di stile del cavolo.....si nvidia è più performante di Ati echissenefrega!!!!!!

Non fatevi infinocchiare sempre per favore........

sniperspa
08-01-2009, 16:36
Potente!
inutile....ma potente! :D

ps.vga fascia media rulez :ciapet:

s12a
08-01-2009, 16:37
ROTFL :D

Finora non avevo fatto caso ai consumi di queste schede. Mostruosi...
Dopo aver speso i 500 per una roba del genere ti costringono a sborsarne altri 300 per un ali da oltre 1KW.

Il sistema testato con la GTX295 preleva alla presa di corrente 421W in condizioni di stress.
Questo vuol dire che considerando un'efficienza dell'85% dell'alimentatore (che sarebbe eccellente, probabilmente e` inferiore), ad esso vengono richiesti 421*0.85=358 watt circa.

Ora posso capire che sia desiderabile avere un po' di margine di sicurezza per eventuali componenti che consumino di piu` da aggiungere in seguito, per overclock o per non stressare troppo l'alimentatore se si usa spesso il sistema a massimo carico, ma secondo me non c'e` il bisogno di salire ad alimentatori di potenza spropositata se si ha cura di prendere un buon modello. In questo caso bastano davvero 5-600w, ma di qualita`. Di piu` serve giusto a chi fa SLI di schede video come questa.

ghiltanas
08-01-2009, 16:38
A me non torna una cosa sui consumi più che altro....una 4870 consuma meno di una GTX280, e quello si sa....allora come fa una 4870X2 a consumare più di uno sli di GTX280 ? :eek:

in idle la 4870 consuma circa 20w di + della gtx280 mentre in full 4 di meno

GT82
08-01-2009, 16:38
Precisiamo che:

a) la 4870x2 è nata per battere la GTX280
b) la GTX295 è di una (semi)generazione avanti
c) la 4870x2 costa 130€ in meno della GTX295
d) il 25% in più di prestazioni non vale la differenza di prezzo
e) queste schede sono solo una gara "a chi ce l'ha più lungo", tra ATI ed nVidia
f) ricoprono una fascia ristrettissima di mercato
g) in conseguenza dei due punti immediatamente precedenti, si può benissimo dire che sono schede pressochè inutili
h) il podio dovrebbe andare a chi offre, nel mercato medio-alto, la soluzione migliore
i) ATI owns

Detto questo, la GTX295 rimane comunque una gran bella bestiolina. :D

Quoto in tutto e per tutto, dopo questo post si potrebbe anche chiudere il thread :read:

ghiltanas
08-01-2009, 16:39
Potente!
inutile....ma potente! :D

ps.vga fascia media rulez :ciapet:

quotone :O

ghiltanas
08-01-2009, 16:41
Il sistema testato con la GTX295 preleva alla presa di corrente 421W in condizioni di stress.
Questo vuol dire che considerando un'efficienza dell'85% dell'alimentatore (che sarebbe eccellente, probabilmente e` inferiore), ad esso vengono richiesti 421*0.85=358 watt circa.



questo punto mi ha fatto riflettere anche a me, con un ali piuttosto efficiente di potenza nn esagerata si possono alimentare già sistemi con le o.O

mto89
08-01-2009, 16:42
a vedere questi dati è davvero ottima.....apparte il prezzo, che comunque è giustificato!
la gtx 285 potrebbe avere prezzi più basssi della radeon 4870x2 vero? e come prestazioni penso che sarà tutto sommato ottima, voi che ne dite?

phil anselmo
08-01-2009, 16:43
bella bestiolina, adesso ci aspettiamo un ribasso generale dei prezzi!
ma che bel periodo in ambito VGA! :)

GT82
08-01-2009, 16:43
in idle la 4870 consuma circa 20w di + della gtx280 mentre in full 4 di meno

C'è comunque qualcosa che non torna perchè una GT280 sta sui 50w in idle mentre la 4870x2 sta sugli 80 scarsi
quindi uno SLI di 280 solo le schede si ciucciano 100w

(fonte: Xbitlabs)

Mparlav
08-01-2009, 16:44
Schede inutili anche secondo me, però mi ha davvero stupito il test di consumo: -45W in idle e -40W rispetto alla HD4870 X2 in full load è davvero uno smacco, considerata la potenza in più offerta.
Inevitabile che la HD4870 X2 calasse di prezzo. Caleranno anche di più, imho.
Facile prevedere 420-430 per la GTX295 e 300-320 euro per la HD4870 X2, esattamente come fu 9800GX2 vs HD3870 X2.

Per la redazione: come stanno messe a livello di temperatura e rumorosità?
Giusto così per curiosità :-)

fukka75
08-01-2009, 16:44
d) il 25% in più di prestazioni non vale la differenza di prezzo
Hai ragione: considerando che costa il 35% in più (ma solo dopo il ribasso di HD4870X2), dovrebbe andare in media il 35% in più :asd::asd:
Ma la Zotac a 479euri, 30% in pù, è già più convincente

e) queste schede sono solo una gara "a chi ce l'ha più lungo", tra ATI ed nVidia
Su questo non c'è dubbio

g) il dual-gpu non gode di un supporto software degno
Visti i risultati dei bench direi l'esatto contrario ;)

h) in conseguenza dei tre punti immediatamente precedenti, si può benissimo dire che sono schede pressochè inutili
ma anche no

i) il podio dovrebbe andare a chi offre, nel mercato medio-alto, la soluzione migliore
E quindi?

l) ATI owns
:doh: :doh:

ghiltanas
08-01-2009, 16:44
a vedere questi dati è davvero ottima.....apparte il prezzo, che comunque è giustificato!
la gtx 285 potrebbe avere prezzi più basssi della radeon 4870x2 vero? e come prestazioni penso che sarà tutto sommato ottima, voi che ne dite?

cavoli al prezzo nn avevo fatto caso :eek:

HL2
08-01-2009, 16:45
perchè alcuni giochi sono testati senza l'AA?
cmq questa rece da dei risultati un po' diversi...
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_nvidia_geforce_gtx_295/20/#abschnitt_performancerating_qualitaet

Sir.Jerry
08-01-2009, 16:47
:doh:
Giocare tranquillamente con una scheda da 200 € e ridere di chi compra queste non ha prezzo!
:Prrr:

fabrizioq
08-01-2009, 16:50
Giocare spendendo 150 € per una xbox360, questo si' che non ha prezzo..!!!
se uno vuole giocare spendendo poco, l'unica strada sono le console

dotlinux
08-01-2009, 16:53
quoto

gianni1879
08-01-2009, 16:54
su computerbase
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_nvidia_geforce_gtx_295/20/#abschnitt_performancerating

ci sono per la Ati i nuovi Catalyst 9.x 8.561.3 Beta (4870 X2) che portano un pò di migliorie percentuali prestazionali alla HD4870x2 rispetto agli 8.11/8.12

abbiamo un +4/8% dovuto solo ai nuovi driver


guardate il rating Rating - 2560x1600 4xAA/16xAF :boh:

Futura12
08-01-2009, 16:54
Giocare spendendo 150 € per una xbox360, questo si' che non ha prezzo..!!!
se uno vuole giocare spendendo poco, l'unica strada sono le console

se vuoi vedere la grafica tipo Pacman sicuramente.(ho una 360Pro)

GT82
08-01-2009, 16:57
ma anche no


Hai ragione, in effetti mezzo KW di corrente per videogiocare più altri 3-400 watt del plasma Full-HD è ancora troppo poco

meglio prendersi avanti e far partire già adesso la costruzione di una trentina di centrali nucleari da 2000 MW l'una (che saranno attive tra 10 anni)

ovviamente la potenza installata nelle case dovrà passare da 3 a 5 Kw come minimo

SwatMaster
08-01-2009, 17:03
Hai ragione: considerando che costa il 35% in più (ma solo dopo il ribasso di HD4870X2), dovrebbe andare in media il 35% in più :asd::asd:
Ma la Zotac a 479euri, 30% in pù, è già più convincente

Se già 380€ sono tanti, per una scheda video, 479€ invece di 499€ sono comunque da pazzi. ;)

Su questo non c'è dubbio

Su qualcosa siamo d'accordo, quantomeno. :D

Visti i risultati dei bench direi l'esatto contrario ;)

Tutti i torti non li hai, ma c'è sempre da considerare che questi sono "bench", e non scenari reali. E poi, dipende sempre e comunque dal gioco preso in considerazione.
Rimane comunque un terreno ancora non privo d'ostacoli, quello del multi-gpu.

ma anche no

Ho detto "pressochè", non "totalmente". ;)

E quindi?

...E quindi non si può determinare quale proposta sia la migliore prendendo solo in considerazione il top di gamma.

:doh: :doh:

Con una HD4870 a 189€, direi che nVidia non fa proprio invidia. ;)

kalle78
08-01-2009, 17:09
Visto il costo della GTX95 sarebbe interessante il confronto con una HD4870x2 in CrossfireX con una HD4870... ci sarebbero giusto 50-60 euro di differenza...

Foglia Morta
08-01-2009, 17:14
Visto il costo della GTX95 sarebbe interessante il confronto con una HD4870x2 in CrossfireX con una HD4870... ci sarebbero giusto 50-60 euro di differenza...

soluzione un po eccentrica ma una recensione c'è: http://www.firingsquad.com/hardware/evga_geforce_gtx_295_performance/

ABCcletta
08-01-2009, 17:14
Il sistema testato con la GTX295 preleva alla presa di corrente 421W in condizioni di stress.
Questo vuol dire che considerando un'efficienza dell'85% dell'alimentatore (che sarebbe eccellente, probabilmente e` inferiore), ad esso vengono richiesti 421*0.85=358 watt circa.

Ora posso capire che sia desiderabile avere un po' di margine di sicurezza per eventuali componenti che consumino di piu` da aggiungere in seguito, per overclock o per non stressare troppo l'alimentatore se si usa spesso il sistema a massimo carico, ma secondo me non c'e` il bisogno di salire ad alimentatori di potenza spropositata se si ha cura di prendere un buon modello. In questo caso bastano davvero 5-600w, ma di qualita`. Di piu` serve giusto a chi fa SLI di schede video come questa.

Però c'è da tener conto del fatto che chi compra una scheda del genere, si presume abbia un sistema all'altezza. A mio avviso, con 600W, sei veramente al limite... (ma proprio tanto).

Futura12
08-01-2009, 17:18
Però c'è da tener conto del fatto che chi compra una scheda del genere, si presume abbia un sistema all'altezza. A mio avviso, con 600W, sei veramente al limite... (ma proprio tanto).

con 600w al limite? spero tu stia scherzando...

actarus_77
08-01-2009, 17:19
Sarà del tutto inutile, però qui si elegge la migliore e la migliore è la gtx295. Si parla di riscatto AMD per un aumento medio delle prestazioni dei phenom II rispetto ai primi phenom del 13%. Qui abbiamo un secco 25% molto più costante dell'aumento AMD nei proci... Non si sminuisce così tanto il successo di un processore (vedasi i7) per le sue eccellenti prestazioni nonostante il costo dell'intera piattaforma, come l'uscita di una nuova scheda video top gamma, come in questo caso, dicendo inutile, assurda, un forno a legna etc.... L'aumento di prestazioni è notevole paragonabile all'i7 rispetto alla concorrenza... Ottimo direi.

Maphia88
08-01-2009, 17:20
Il sistema testato con la GTX295 preleva alla presa di corrente 421W in condizioni di stress.
Questo vuol dire che considerando un'efficienza dell'85% dell'alimentatore (che sarebbe eccellente, probabilmente e` inferiore), ad esso vengono richiesti 421*0.85=358 watt circa.

Ora posso capire che sia desiderabile avere un po' di margine di sicurezza per eventuali componenti che consumino di piu` da aggiungere in seguito, per overclock o per non stressare troppo l'alimentatore se si usa spesso il sistema a massimo carico, ma secondo me non c'e` il bisogno di salire ad alimentatori di potenza spropositata se si ha cura di prendere un buon modello. In questo caso bastano davvero 5-600w, ma di qualita`. Di piu` serve giusto a chi fa SLI di schede video come questa.

Mi sa che hai sbagliato un calcolo. Se la scheda richiede 421W in condizioni di stress, un alimentatore di ottima qualità ( con 85% di efficenza quindi ) dovrebbe essere di almeno 421/0.85= 495 W..Per evitare di fare spegnere il computer quindi, bisognerebbe quindi prendersi un alimentatore con 85% di efficenza e minimo ma proprio minimo 600W .

Io son contro tutte queste lamentele che ste schede sono dei forni, "ci vuole una centrale elettrica per accendere il computer" " la bolletta a fine mese poi son 100 euro.."

FAcciamo un calcolo . Se utilizzo il mio computer anche 6 ore al giorno al massimo, avrei 600w*6h=3600 Wh. Moltiplicato per 31 giorni fa 111600 Wh. che sono 111.6 Kwh. Dato che un Kwh la enel ce lo fa pagare intorno ai 20 centesimi, ti verrebbe una bolletta di 111.6*0.20= 22.32 euro..Credo che uno che si puo permettere di spendere quasi 500 euro su una scheda, non si faccia molti problemi se giocare 6 ore al giorno a qualsiasi gioco vuole al massimo della grafica, gli viene a costare 20 euro al mese..

Mparlav
08-01-2009, 17:24
Corsair per un sistema con i7 + HD4870X2, senza overclock, consiglia con la sua utility un HX520W o un 550W.
Ottimi si, ma pur sempre nel loro listino di fascia bassa :-)

Okiya
08-01-2009, 17:27
Mi sa che hai sbagliato un calcolo.

Quoto!

Servirà un alimentatore da almeno 600W, oltretutto di buona qualità.

Per il resto penso che in Italia sia necessaria una maggiore educazione ambientale: gli utenti si rendono conto dello spreco soltanto quando si accorgono di pagare troppo...!

TecnologY
08-01-2009, 17:28
sembra impossibile ma tra 2 anni ci saranno schede più potenti in single slot per 80€

SwatMaster
08-01-2009, 17:29
Mi sa che hai sbagliato un calcolo. Se la scheda richiede 421W in condizioni di stress, un alimentatore di ottima qualità ( con 85% di efficenza quindi ) dovrebbe essere di almeno 421/0.85= 495 W..Per evitare di fare spegnere il computer quindi, bisognerebbe quindi prendersi un alimentatore con 85% di efficenza e minimo ma proprio minimo 600W .

Io son contro tutte queste lamentele che ste schede sono dei forni, "ci vuole una centrale elettrica per accendere il computer" " la bolletta a fine mese poi son 100 euro.."

FAcciamo un calcolo . Se utilizzo il mio computer anche 6 ore al giorno al massimo, avrei 600w*6h=3600 Wh. Moltiplicato per 31 giorni fa 111600 Wh. che sono 111.6 Kwh. Dato che un Kwh la enel ce lo fa pagare intorno ai 20 centesimi, ti verrebbe una bolletta di 111.6*0.20= 22.32 euro..Credo che uno che si puo permettere di spendere quasi 500 euro su una scheda, non si faccia molti problemi se giocare 6 ore al giorno a qualsiasi gioco vuole al massimo della grafica, gli viene a costare 20 euro al mese..

...Ricordando poi che sono comunque valori sotto full stress. ;)

Zermak
08-01-2009, 17:31
Facciamo un calcolo . Se utilizzo il mio computer anche 6 ore al giorno al massimo, avrei 421W*6h=2526Wh. Moltiplicato per 31 giorni fa 78306Wh, che sono 70.306kWh. Dato che un kWh la Enel ce lo fa pagare intorno ai 0.093 euro +20% IVA, ti verrebbe una bolletta di 92.07*0.093 +20% IVA = 8,74 euro circa...
Mi sono permesso di correggere :)

Charlie-Brown
08-01-2009, 17:35
Mi sa che hai sbagliato un calcolo. Se la scheda richiede 421W in condizioni di stress, un alimentatore di ottima qualità ( con 85% di efficenza quindi ) dovrebbe essere di almeno 421/0.85= 495 W..Per evitare di fare spegnere il computer quindi, bisognerebbe quindi prendersi un alimentatore con 85% di efficenza e minimo 600W.

...Credo che uno che si puo permettere di spendere quasi 500 euro su una scheda, non si faccia molti problemi se giocare 6 ore al giorno a qualsiasi gioco vuole al massimo della grafica, gli viene a costare 20 euro al mese..

Quoto entrambe le cose; dai ragazzi miglioriamo in matematica! prossimo corso di appunti digitali, ok??? :Prrr:
;) scherzo...

Seriamente parlando,BRAVI, bella rece.
Al di là del costo effettivamente fuori da una reale portata (stiamo parlando di quasi 1 MILIONE delle vecchie lire, solo per la sk. video... :eek: ) mi intrigano molto gli utilizzi alternativi della GPU: Cuda e PhysX.
Ora visto che la GPU è diventata di enorme potenza, quanto ad oggi queste tecnologie sono utilizzabili?
Avete qualche nuovo test da aggiungere per verificarlo con software (tipo come fate sui giochi)? Sarebbe bello...
Io personalmente non vedo l'ora possano funzionare in maniera estesa. Del resto la maggior parte del tempo, quando non si gioca, la potenza è sovrabbondante, e non solo. Datemi del pirla, un pò è vero, ma avevo zippato dei file con password per tenerli lontani da occhi indiscreti. Ovviamente la password per evitar gli occhi non son scritte da nessuna parte e, pirla, l'ho scordata! Se potessi utilizzare la potenza per recuperar la password, invece che i i 365 giorni richiesti ad oggi da un brute force (sono creativo nelle mie password e quindi i metodi smart non funzionano... :stordita: ) potrebbero esser ridotti di un bel pò...

HWupgrade, nessuna info sui software utilizzabili con CUDA e C.?
Qui ci starebbe bene un bell'articolone!!! :D

KampMatthew
08-01-2009, 17:35
"

Aspetto con ansia le prime schede dx11 (da entrambe le parti).

e a cosa servono se fino ad oggi, a parte un paio, ancora devono uscire titoli che facciano veramente vedere qualcosa di dx10? cioè, si comprano schede dx10 per bellezza, non si sfruttano minimamente e già aspettiamo le 11? questi già di loro, corrono, poi se ci mettiamo pure noi a dargli gas ci spolpano vivi. :D

S|c
08-01-2009, 17:37
Io ho comprato due 9800 gtx+ exo edition della pov...
posseggo un mk241h dell'asus collegato in hdmi a 1920x1200

devo dire che attualmente faccio da dio tutto...

...Confermo e sottoivo il fatto che la 295 è una scheda da noob sborone perchè ha consumi assurdi il costo è probitivo e dato che nvidia ha annunciato le 40nm beh nn ha ne capo ne coda una scheda così...

è una scheda da "Righello".

s12a
08-01-2009, 17:38
Mi sa che hai sbagliato un calcolo. Se la scheda richiede 421W in condizioni di stress, un alimentatore di ottima qualità ( con 85% di efficenza quindi ) dovrebbe essere di almeno 421/0.85= 495 W..Per evitare di fare spegnere il computer quindi, bisognerebbe quindi prendersi un alimentatore con 85% di efficenza e minimo ma proprio minimo 600W .

Il calcolo e` giusto, il test ha rilevato 421W a monte dell'alimentatore, quindi alla presa di corrente. Questo e` il consumo di tutto il sistema effettivo, non solo della scheda video.
Di questi 421W una parte piccola (considerando un'efficienza dell'alimentatore dell'85% al carico richiesto) va in calore da dissipare (15%, quindi 421*0.15 = circa 63 watt) ed un'altra grande (la percentuale di efficienza) in alimentazione effettiva delle periferiche collegate allo stesso, quindi 421*0.85 = circa 358 watt.
Se invece avessimo conosciuto le richieste energetiche in watt DC di tutte le periferiche all'alimentatore, per calcolare il consumo alla presa di corrente in watt AC avremmo dovuto effettuare il calcolo contrario. 358w DC / 0.85 = 421 watt AC.

Goofy Goober
08-01-2009, 17:39
ottimo e ora arriva la seconda HD4870X2 per un bel crossfireX

Futura12
08-01-2009, 17:41
ottimo e ora arriva la seconda HD4870X2 per un bel crossfireX

:stordita:

Capozz
08-01-2009, 17:42
Quello che mi chiedo è: ma servono ste schede ?
Hanno una sovrabbondanza di potenza allucinante anche a risoluzioni come 2560x1600 con filtri!

UT3: 110fps
Left 4 dead: quasi 100fps
Company of heroes: 90 fps
FarCry 2: 90fps
ET quake wars: 106 fps

Boh secondo me si sta esagerando. Veramente è solo un'inutile gara a chi ce l'ha più lungo.

Axelt
08-01-2009, 17:45
Precisiamo che:

a) la 4870x2 è nata per battere la GTX280
b) la GTX295 è di una (semi)generazione avanti
c) la 4870x2 costa 130€ in meno della GTX295
d) il 25% in più di prestazioni non vale la differenza di prezzo
e) queste schede sono solo una gara "a chi ce l'ha più lungo", tra ATI ed nVidia
f) ricoprono una fascia ristrettissima di mercato
g) il dual-gpu non gode di un supporto software degno
h) in conseguenza dei tre punti immediatamente precedenti, si può benissimo dire che sono schede pressochè inutili
i) il podio dovrebbe andare a chi offre, nel mercato medio-alto, la soluzione migliore
l) ATI owns

Detto questo, la GTX295 rimane comunque una gran bella bestiolina. :D

mi sa proprio che ti devo quotare :asd:.......in toto!!

Stefem
08-01-2009, 17:45
Mi sono permesso di correggere :)

Originariamente inviato da Maphia88 Guarda i messaggi
Mi sa che hai sbagliato un calcolo. Se la scheda richiede 421W in condizioni di stress, un alimentatore di ottima qualità ( con 85% di efficenza quindi ) dovrebbe essere di almeno 421/0.85= 495 W..Per evitare di fare spegnere il computer quindi, bisognerebbe quindi prendersi un alimentatore con 85% di efficenza e minimo ma proprio minimo 600W .

Io son contro tutte queste lamentele che ste schede sono dei forni, "ci vuole una centrale elettrica per accendere il computer" " la bolletta a fine mese poi son 100 euro.."

Facciamo un calcolo . Se utilizzo il mio computer anche 6 ore al giorno al massimo, avrei ~495W*6h=2970Wh. Moltiplicato per 31 giorni fa 92070Wh, che sono 92.07kWh. Dato che un kWh la Enel ce lo fa pagare intorno ai 39 centesimi, ti verrebbe una bolletta di 92.07*0.39 = 35.9 euro circa...


Prima di correggere controlla la correttezza dei dati ;) .

La recensione dice:

"Parlando di consumi, la tabella mette in luce i dati registrati durante la sessione di testing riferiti al consumo dell'intero sistema di test a monte dell'alimentatore in idle e a pieno carico (con shadermark)"

Quindi il consumo massimo registrato per il sistema dotato di GTX 295, pari a 421W, è quello effettivamente prelevato dalla rete.

Maphia88
08-01-2009, 17:49
Prima di correggere controlla la correttezza dei dati ;) .

La recensione dice:

"Parlando di consumi, la tabella mette in luce i dati registrati durante la sessione di testing riferiti al consumo dell'intero sistema di test a monte dell'alimentatore in idle e a pieno carico (con shadermark)"

Quindi il consumo massimo registrato per il sistema dotato di GTX 295, pari a 421W, è quello effettivamente prelevato dalla rete.

ammetto di aver sbagliato, perche avevo capito, leggendo il post che ho quotato, che la scheda consumasse 421, calcolati dopo l'alimentatore..a sto punto pero se alla presa della corrente il sistema consuma 421 w, direi che l'alimentatore deve essere da almeno 421w. e non da 358 come era stato scritto..perche se non ho capito male, 421w vengono "presi" dal muro, poi l'alimentatore ne da circa (421*0.85) 358W al sistema e i restanti 70 si trasformano in calore..

Sgt.Pepper89
08-01-2009, 17:50
Sembra davvero un'ottima scheda ;) finalmente il gt200 riesce a produrre una scheda sensata come rapporto prezzo-prestazioni, un mostro capace di giustificare la spesa a cui viene proposto e sopratutto con consumi bassi per una top gamma grazie al processo produttivo a 55nm.
Ati deve fare qualcosa di più che abbassare i prezzi della sua top per star dietro a Nvidia nella fascia alta, visto che la scalabilità del crossfire già scarsa con due schede diventa nulla utilizzando configurazioni con 2 4870x2.

fukka75
08-01-2009, 17:50
Se già 380€ sono tanti, per una scheda video, 479€ invece di 499€ sono comunque da pazzi. ;)

:mc: :mc:
Non stavamo discutendo dei prezzi in assoluto, ma stavamo confrontando i prezzi delle due vga.
Tu hai detto "il 25% in più di prestazioni non giustifica il prezzo più elevato": io ti ho fatto notare che il prezzo della GTX295 è "solo" del 35% più elevato rispetto alla HD4870X2 (a fronte di prestazioni maggiori del 25% in media); tra l'altro ciò è vero solo a seguito della diminuizione di prezzo appena annunciata da AMD: al momento le HD4870X2 si trovano a non meno di 400eur, e indovina un po' 500eur quanto è in più rispetto a 400eur? esattamente il 25% in più: quindi direi che il prezzo di GTX295 è del tutto giustificato ;)

Free Gordon
08-01-2009, 17:52
Su Computerbase la pensano diversamente, pare che la 4870X2 sia in alcuni casi con AA4x che, ovviamente sempre, con AA8x, sia più veloce della GTX295...

Altrimenti nelle res in cui è più veloce la GTX295 lo è in media del 6%..

http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_nvidia_geforce_gtx_295/20/#abschnitt_performancerating_qualitaet

Stefem
08-01-2009, 17:52
Quello che mi chiedo è: ma servono ste schede ?
Hanno una sovrabbondanza di potenza allucinante anche a risoluzioni come 2560x1600 con filtri!

UT3: 110fps
Left 4 dead: quasi 100fps
Company of heroes: 90 fps
FarCry 2: 90fps
ET quake wars: 106 fps

Boh secondo me si sta esagerando. Veramente è solo un'inutile gara a chi ce l'ha più lungo.
Magari qualcuno ha comprato Crysis e dice: "è un peccato aver comprato un gioco a 50€ e non poterci giocare al massimo del dettaglio con un' ottima fluidità..."

Vedi che ha qualcuno servono queste schede :)

Zermak
08-01-2009, 17:53
Prima di correggere controlla la correttezza dei dati ;) .
"Ultima modifica di Zermak : Oggi alle 17:44." :read:

;)

s12a
08-01-2009, 17:53
ammetto di aver sbagliato, perche avevo capito, leggendo il post che ho quotato, che la scheda consumasse 421, calcolati dopo l'alimentatore..a sto punto pero se alla presa della corrente il sistema consuma 421 w, direi che l'alimentatore deve essere da almeno 421w. e non da 358 come era stato scritto..perche se non ho capito male, 421w vengono "presi" dal muro, poi l'alimentatore ne da circa (421*0.85) 358W al sistema e i restanti 70 si trasformano in calore..

La potenza dichiarata dagli alimentatori e` sempre quella totale erogabile dalle linee a corrente continua interne, non la massima prelevabile da rete. Che poi quelli scadenti non ce la facciano ad erogare stabilmente tutta la corrente necessaria per mantenere il pieno carico e` un altro discorso, ma gli alimentatori di qualita` non hanno problemi ad operare in queste condizioni, sono fatti anche per questo.

Un alimentatore ideale dalla potenza dichiarata di 358W riesce quindi ad alimentare il sistema di prova.
Poi ovviamente uno si regola in base al budget, ai carichi tipici, alla rumorosita`, e ne prende uno un po' piu` surdimensionato, ma eccedere con la potenza dichiarata e` realmente necessario solo quando si scelgono modelli di qualita` bassa o mediocre.

Axelt
08-01-2009, 17:54
io direi che invece di sparare "prezzi" bisognerebbe aspettare che esca.....visto che sicuramente nn saranno 500€ma come al solito di +

Stefem
08-01-2009, 17:56
Su Computerbase la pensano diversamente, pare che la 4870X2 sia in alcuni casi con AA4x che, ovviamente sempre, con AA8x, sia più veloce della GTX295...

Altrimenti nelle res in cui è più veloce la GTX295 lo è in media del 6%..

http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_nvidia_geforce_gtx_295/20/#abschnitt_performancerating_qualitaet

Vero, succede spesso tra l'altro...

Secondo me Computerbase ha un modo tutto suo di vedere le cose, anche se si guarda al passato.

gianni1879
08-01-2009, 17:57
Su Computerbase la pensano diversamente, pare che la 4870X2 sia in alcuni casi con AA4x che, ovviamente sempre, con AA8x, sia più veloce della GTX295...

Altrimenti nelle res in cui è più veloce la GTX295 lo è in media del 6%..

http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_nvidia_geforce_gtx_295/20/#abschnitt_performancerating_qualitaet

l'avevo fatto notare io in un mio post precedente ma nessuno evidentemente l'ha letto, oltretutto ci sono in prova in nuovi 9.x beta

ABCcletta
08-01-2009, 17:57
con 600w al limite? spero tu stia scherzando...

Non direi. Tu alimenteresti un i7, con 6gb di ram, una scheda del genere, un raid 0, un disco per lo storage e altri cazzi vari con meno di 600W? Se vuoi provare un minimo di overclock a mio avviso i 600W sono molto stretti.

Maphia88
08-01-2009, 17:58
La potenza dichiarata dagli alimentatori e` sempre quella totale erogabile dalle linee a corrente continua interne, non la massima prelevabile da rete. Che poi quelli scadenti non ce la facciano ad erogare stabilmente tutta la corrente necessaria per mantenere il pieno carico e` un altro discorso, ma gli alimentatori di qualita` non hanno problemi ad operare in queste condizioni, sono fatti anche per questo.

ma quindi un alimentatore con 80% ci efficenza e 600W di potenza dichiarata,

prende 600W al muro, e 480 li distribuisce al sistema?

o

prende 750W al muro, e 600 li distribuisce al sistema?

Stefem
08-01-2009, 18:00
"Ultima modifica di Zermak : Oggi alle 17:44." :read:

;)
Già...:)
io direi che invece di sparare "prezzi" bisognerebbe aspettare che esca.....visto che sicuramente nn saranno 500€ma come al solito di +

La GTX 295 è già in commercio, il prezzo migliore che sono riuscito a trovare è pari a 480 €

Stefem
08-01-2009, 18:01
ma quindi un alimentatore con 80% ci efficenza e 600W di potenza dichiarata,

prende 600W al muro, e 480 li distribuisce al sistema?

o

prende 750W al muro, e 600 li distribuisce al sistema?

La seconda. ;)

Ovviamente se i componenti del PC consumano in totale 600W.

Sgt.Pepper89
08-01-2009, 18:01
Su Computerbase la pensano diversamente, pare che la 4870X2 sia in alcuni casi con AA4x che, ovviamente sempre, con AA8x, sia più veloce della GTX295...

Altrimenti nelle res in cui è più veloce la GTX295 lo è in media del 6%..

http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_nvidia_geforce_gtx_295/20/#abschnitt_performancerating_qualitaet

:eek:
In effetti mancano i risultati con AA8x qui su hwupgrade, ma comunque in quel test la situazione sembra ben diversa :confused: saranno i nuovi driver ati?
Del resto anche per nvidia stanno usando driver non proprio recenti.

Axelt
08-01-2009, 18:01
La GTX 295 è già in commercio, il prezzo migliore che sono riuscito a trovare è pari a 480 €

pazzesco... già uscita!

s12a
08-01-2009, 18:01
ma quindi un alimentatore con 80% ci efficenza e 600W di potenza dichiarata,

prende 600W al muro, e 480 li distribuisce al sistema?

o

prende 750W al muro, e 600 li distribuisce al sistema?

edit-
scusa avevo letto male, comunque ti hanno gia` risposto.
E` la seconda.

Severnaya
08-01-2009, 18:01
@Capozz


ricordati che quegli fps sono dati dall'intero sistema nn dalla sola scheda video

abbiamo un processore che costa più di mille euro se nn sbaglio :asd:

su sistemi normali (fascia media e fascia bassa intendo) montare quelle schede prob farà guadagnare molto ma nn si registreranno qyelle prestazioni IMHO

Defragg
08-01-2009, 18:02
... ma da uno sli di GTX295 (magari 3) cosa viene fuori? :)

3 non ce le puoi mettere in SLi, non esiste il 6-way SLi :D

Per ora :stordita:

Zermak
08-01-2009, 18:02
Non direi. Tu alimenteresti un i7, con 6gb di ram, una scheda del genere, un raid 0, un disco per lo storage e altri cazzi vari con meno di 600W? Se vuoi provare un minimo di overclock a mio avviso i 600W sono molto stretti.
Leggi la mia firma :)

Lithium_2.0
08-01-2009, 18:03
Magari qualcuno ha comprato Crysis e dice: "è un peccato aver comprato un gioco a 50€ e non poterci giocare al massimo del dettaglio con un' ottima fluidità..."

Vedi che ha qualcuno servono queste schede :)

Già, peccato aver buttato così 50€, aspetta che ne spendo altri 500€...

Axelt
08-01-2009, 18:03
l'avevo fatto notare io in un mio post precedente ma nessuno evidentemente l'ha letto, oltretutto ci sono in prova in nuovi 9.x beta

come al solito i driver fanno la loro parte!

Maphia88
08-01-2009, 18:04
edit-
scusa avevo letto male, comunque ti hanno gia` risposto.
E` la seconda.

ok grazie. era l'unica cosa che non avevo chiaro..cmq se nn ho letto male da qualche parte, la massimo efficenza si ha quando il carico è il 50% della potenza dichiarata..forse sul sito della enermax o corsair..

gianni1879
08-01-2009, 18:07
come al solito i driver fanno la loro parte!

già con questi driver catalyst ci sono incrementi prestazionali di +4/8% che non è proprio da sottovalutare

Stefem
08-01-2009, 18:10
ok grazie. era l'unica cosa che non avevo chiaro..cmq se nn ho letto male da qualche parte, la massimo efficenza si ha quando il carico è il 50% della potenza dichiarata..forse sul sito della enermax o corsair..

Dipende dalla PSU, in genere comunque si assesta intorno a quella percentuale.
Da noi siamo anche avvantaggiati dalla tensione a 230V.

gotta89
08-01-2009, 18:12
ma in pratica sono 3 schede singole messe in sli e montate insieme.... penso che il vero passo avanti sia ancora di ATi con le 2 gpu nello stesso pcb. Poi, se la hd4870 x2 comincerà a trovarsi al prezzo indicato nell'articolo, il rapporto prezzo\prestazioni per entrambe le schede è identico... con questo non voglio criticare nvidia, anzi.......

gianni1879
08-01-2009, 18:12
ma in pratica sono 3 schede singole messe in sli e montate insieme.... penso che il vero passo avanti sia ancora di ATi con le 2 gpu nello stesso pcb. Poi, se la hd4870 x2 comincerà a trovarsi al prezzo indicato nell'articolo, il rapporto prezzo\prestazioni per entrambe le schede è identico... con questo non voglio criticare nvidia, anzi.......

guarda che sono due GT200b

s12a
08-01-2009, 18:13
ok grazie. era l'unica cosa che non avevo chiaro..cmq se nn ho letto male da qualche parte, la massimo efficenza si ha quando il carico è il 50% della potenza dichiarata..forse sul sito della enermax o corsair..

Anche questo dipende, alcuni il picco lo possono avere a bassi carichi, altri a medi, ma quelli buoni (tipicamente quelli certificati 80plus) di una certa fascia e potenza mantengono comunque una efficienza pressoche' (sottolineo pressoche') costante per un'ampia fascia di carichi anche fino a quasi il 100%.

Mparlav
08-01-2009, 18:13
Prezzi di New***.com negli Usa senza promozioni varie:
500$ + tasse variabili per la GTX295
460$ + tasse variabili per la HD4870 X2

In Germania:
439 euro iva inclusa per la GTX295
369 euro iva inclusa per la HD4870 X2

In Italia:
per la GTX295: nisba :)
per la HD4870 X2: 406 euro iva inclusa

scenderanno di prezzo. Plausibile 450 e 380 euro qui Italia in 1 o 2 settimane.

SwatMaster
08-01-2009, 18:14
:mc: :mc:
Non stavamo discutendo dei prezzi in assoluto, ma stavamo confrontando i prezzi delle due vga.
Tu hai detto "il 25% in più di prestazioni non giustifica il prezzo più elevato": io ti ho fatto notare che il prezzo della GTX295 è "solo" del 35% più elevato rispetto alla HD4870X2 (a fronte di prestazioni maggiori del 25% in media); tra l'altro ciò è vero solo a seguito della diminuizione di prezzo appena annunciata da AMD: al momento le HD4870X2 si trovano a non meno di 400eur, e indovina un po' 500eur quanto è in più rispetto a 400eur? esattamente il 25% in più: quindi direi che il prezzo di GTX295 è del tutto giustificato ;)

Il fatto che stessimo confrontando i prezzi delle due schede, non esclude il fatto che siano comunque troppo elevati.
E comunque, per rendere appetibile la scheda a fronte di prestazioni migliori, il rapporto performance/dollaro sarebbe dovuto aumentare. Tra i 400€ ed i 450€ questa scheda avrebbe letteralmente spappolato la 4870x2; ma a quel prezzo, si equivalgono. ;)

bs82
08-01-2009, 18:16
4870x2 per tutti!!!!!!!! Grazie nvidia! :DDD...con i tuoi accrocchi doni a tutti le ati a prezzi imperdibili!

OmgKllL
08-01-2009, 18:17
come preannunciato questa gtx295 è un vero mostro di forza bruta
peccato che sia uscita cosi tardi (voglio vedere la gente che vende la 4870x2 per prendere la 295 quanta sarà)

Stefem
08-01-2009, 18:17
Prezzi di New***.com negli Usa senza promozioni varie:
500$ + tasse variabili per la GTX295
460$ + tasse variabili per la HD4870 X2

In Germania:
439 euro iva inclusa per la GTX295
369 euro iva inclusa per la HD4870 X2

In Italia:
per la GTX295: nisba :)
per la HD4870 X2: 406 euro iva inclusa

scenderanno di prezzo. Plausibile 450 e 380 euro qui Italia in 1 o 2 settimane.

La GTX 295 in Italia l'ho trovata a 480€, scheda prodotta da EVGA.
Quella di ZOTAC dovrebbe costare un po' meno fin da subito.

Mparlav
08-01-2009, 18:20
Ci sono alimentatori che hanno efficienza dell'80-85% già con un 25% di carico.
Ovvio non quello scrauso che pesa 200 grammi :-)

Da notare che in molte recensioni negli USA, ovviamente testano con 110V, penalizzato rispetto ai nostri 220V (in realtà questo è un valore medio, varia tranquillamente del 5%, a volte più).

Ad esempio a 120V:
http://www.hardocp.com/article.html?art=MTMwMSw0LCwxNTA=

nella pagina dopo a 100V.

bs82
08-01-2009, 18:35
http://74.125.79.113/translate_c?hl=en&sl=de&tl=en&u=http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_nvidia_geforce_gtx_295/&usg=ALkJrhh6lFgZaDk3amaMMVVqM7r2uMoaAw#abschnitt_einleitung

La GTX295 alle risoluzioni proporzionate al costo prende sonore bastonate dalla 4870x2.....

appleroof
08-01-2009, 18:39
http://74.125.79.113/translate_c?hl=en&sl=de&tl=en&u=http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_nvidia_geforce_gtx_295/&usg=ALkJrhh6lFgZaDk3amaMMVVqM7r2uMoaAw#abschnitt_einleitung

La GTX295 alle risoluzioni proporzionate al costo prende sonore bastonate dalla 4870x2.....

:what:

bs82
08-01-2009, 18:42
Rating - 1680x1050 8xAA/16xAF
ATi Radeon HD 4870 X2 Cat 9.x ATi Radeon HD 4870 X2 Cat 9.x
115,6
ATi Radeon HD 4870 X2 ATi Radeon HD 4870 X2
104,6
Nvidia GeForce GTX 295 Nvidia GeForce GTX 295
100,0


fa più rumore e

http://74.125.79.113/translate_c?hl=en&sl=de&tl=en&u=http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_nvidia_geforce_gtx_295/21/&usg=ALkJrhgHVmusWGUqY8V_9OIg16HZ1Q7gOw#abschnitt_mikroruckler_auf_der_gtx_295

...microstuttering a gogo....

Axelt
08-01-2009, 18:43
già con questi driver catalyst ci sono incrementi prestazionali di +4/8% che non è proprio da sottovalutare

infatti già quei test di hwupgrade sarebbero da rivedere.......logicamente poi aspettando i nuovi driver nvidia.........penso che sarà come al solito un'altalena..

Axelt
08-01-2009, 18:45
come preannunciato questa gtx295 è un vero mostro di forza bruta
peccato che sia uscita cosi tardi (voglio vedere la gente che vende la 4870x2 per prendere la 295 quanta sarà)


beh.....penso che sarebbe proprio una stupidaggine vendere la 4870x2 x prendersi una 295 nn avrebbe proprio senso!

bs82
08-01-2009, 18:48
....da 1680 con AA in su.... sulla review di computerbase prende sonore bastonate.
Saranno i catalyst 9 beta?

ciocia
08-01-2009, 18:51
Come fanno 2 gtx280 sli a far andare cysis a 1920x1200 dx10 tutto al max, a 62fps contro i 20 di una singola gtx280???? :mbe: :stordita:

Stefem
08-01-2009, 18:51
....da 1680 con AA in su.... sulla review di computerbase prende sonore bastonate.
Saranno i catalyst 9 beta?

Sarà Computerbase?

netcrusher
08-01-2009, 18:53
Ragazzi calmiamoci un pò prima di esaltarci tutti, in fondo noi al momento abbiamo dato credito solo ai benchs di hardwareupgrade, non voglio insinuare nulla però già dall'altro sito tedesco i conti non tornano.......guarda se la hd4870x2 sta davvero avanti alla gtx295 mi faccio prete.......sono curioso di vederla recensita su altri autorevoli siti e confrontata con i drivers ottimizzati, sia per nvidia che per ati.......può darsi pure che non è oro tutto ciò che luccica........staremo a vedere.....

Axelt
08-01-2009, 18:58
Rating - 1680x1050 8xAA/16xAF
ATi Radeon HD 4870 X2 Cat 9.x ATi Radeon HD 4870 X2 Cat 9.x
115,6
ATi Radeon HD 4870 X2 ATi Radeon HD 4870 X2
104,6
Nvidia GeForce GTX 295 Nvidia GeForce GTX 295
100,0


fa più rumore e

http://74.125.79.113/translate_c?hl=en&sl=de&tl=en&u=http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_nvidia_geforce_gtx_295/21/&usg=ALkJrhgHVmusWGUqY8V_9OIg16HZ1Q7gOw#abschnitt_mikroruckler_auf_der_gtx_295

...microstuttering a gogo....

in effetti con i nuovi driver nn c'è + tutta questa differenza..........e addirittura con i filtri caricati la 295 e sotto la 4870x2...............prodigiosi questi "beta"......

Kharonte85
08-01-2009, 19:01
Nvidia si riprende lo scettro con gli interessi...ottimo lavoro sul lato consumi, temperature e rumorosità.

Direi quasi come da manuale, per nulla inaspettato...peccato per il ritardo dovuto al pp @55nm.

Axelt
08-01-2009, 19:05
beh......in quanto a temperature e rumorosità nn vedo tutto questo miracolo..........mentre devo dare atto che 45 watt in meno in full sono un buon risultato...

Stefem
08-01-2009, 19:06
Rating - 1680x1050 8xAA/16xAF
ATi Radeon HD 4870 X2 Cat 9.x ATi Radeon HD 4870 X2 Cat 9.x
115,6
ATi Radeon HD 4870 X2 ATi Radeon HD 4870 X2
104,6
Nvidia GeForce GTX 295 Nvidia GeForce GTX 295
100,0


fa più rumore e

http://74.125.79.113/translate_c?hl=en&sl=de&tl=en&u=http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_nvidia_geforce_gtx_295/21/&usg=ALkJrhgHVmusWGUqY8V_9OIg16HZ1Q7gOw#abschnitt_mikroruckler_auf_der_gtx_295

...microstuttering a gogo....

Parliamo del microstuttering che sempre Computerbase ha rilevato sulla 4870X2?
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4870_x2/24/#abschnitt_problem_mikroruckler

Questo come lo definiresti se per la GTX 295 dici "...microstuttering a gogo...."?

Kharonte85
08-01-2009, 19:07
in effetti con i nuovi driver nn c'è + tutta questa differenza..........e addirittura con i filtri caricati la 295 e sotto la 4870x2...............prodigiosi questi "beta"......

Sono gli stessi usati da Hwupgrade:

Computerbase:

ATi Catalyst 9.x 8.561.3 Beta (4870 X2)

Hwupgrade:

Per completezza di informazione, riportiamo che per testare la 4870X2 e confrontarla al meglio con la nuova proposta di NVIDIA, sono stati utilizzati dei driver rilasciati, solo alla stampa, negli ultimi giorni identificati dalla sigla 8.561.3. Il pacchetto contiene alcuni aggiornamenti che saranno presumibilmente presenti nella release dei Catalyst 9.1

netcrusher
08-01-2009, 19:09
Parliamo del microstuttering che sempre Computerbase ha rilevato sulla 4870X2?
http://www.computerbase.de/artikel/hardware/grafikkarten/2008/test_ati_radeon_hd_4870_x2/24/#abschnitt_problem_mikroruckler

Questo come lo definiresti se per la GTX 295 dici "...microstuttering a gogo...."?

Se i benchs di computerbase sono attendibili gtx295 le prende alla grande con i filtri attivi...........ciao ciao......


p.s.
comunque a questo punto non mi fido di nessun bench perchè possono essere tutti di parte....come si fà adesso per valutare???

okorop
08-01-2009, 19:09
vga stratosferica peccato che non è testato il quad sli con gtx285 per la fisica....

Stefem
08-01-2009, 19:17
Se i benchs di computerbase sono attendibili gtx295 le prende alla grande con i filtri attivi...........ciao ciao......


p.s.
comunque a questo punto non mi fido di nessun bench perchè possono essere tutti di parte....come si fà adesso per valutare???

Ciao, non ti avevo riconosciuto a causa del tuo nuovo avatar.

Il tuo discorso non c'azzecca molto con il post che hai quotato.

Flying Tiger
08-01-2009, 19:17
Ma che povera ati e povera ati, poveri tutti noi che ci facciamo abbindolare da questa malattia delle performance inutili.......ed io dovrei spendere 500 euro per questa colossale presa in giro???? (presa in giro perchè a seguire usciranno le vga dx11 di nvidia non perchè non sia performante la scheda)....

seguite il consiglio di molti utenti saggi, vi basta una gtx260 o una hd4870 per dormire sogni tranquilli.......non regalate i vostri soldi solo perchè fanno questi esercizi di stile del cavolo.....si nvidia è più performante di Ati echissenefrega!!!!!!

Non fatevi infinocchiare sempre per favore........

Sono d'accordo , queste schede hanno solo lo scopo di avere in mano lo scettro del prodotto piu' performante che significa visibilita' e ritorno di immagine , un' operazione di marketing con l' unico fine di incrementare le vendite ...

E comunque non sono mai i bench che dimostrano la reale bonta' di un prodotto, quanto invece l' utilizzo reale con i games , e sappiamo tutti quanto sia ancora deficitario, da parte di questi ultimi , il supporto alla tecnologia Sli/Crossfire ...come dire , tanta potenza nominale ma che viene sfruttata solo in parte , visto che non e' che i driver possano fare miracoli ....

grng
08-01-2009, 19:21
Scheda al top, prezzo al top, costa 50% in più di una 4870x2.
Cmq bella bestiola...per chi ha un monitor dai 24 in su potrebbe trovarla interessante, anche se io aspetterei un po' per spendere certe cifre, con le dx11 in uscita quest'anno.

sniperspa
08-01-2009, 19:23
3 non ce le puoi mettere in SLi, non esiste il 6-way SLi :D

Per ora :stordita:

Se è per quello esistono anche 4 9800gtx2 in sli :fagiano:

netcrusher
08-01-2009, 19:27
Ciao, non ti avevo riconosciuto a causa del tuo nuovo avatar.

Il tuo discorso non c'azzecca molto con il post che hai quotato.

ho notato che sei molto protettivo nei confronti della nvidia e non dai credito più di tanto a quel sito e quindi anche io ho mostrato un pò gli artigli perchè al momento non si è capito se questa gtx295 và più forte o meno della hd4870x2......stando a quei benchs non direi che è la risposta ad ati.....comunque io voglio vedere altre comparative di siti importanti prima di sparare a zero...........comunque ben venga che la hd4870x2 scende di prezzo.........ciao ciao

Axelt
08-01-2009, 19:31
ho notato che sei molto protettivo nei confronti della nvidia e non dai credito più di tanto a quel sito e quindi anche io ho mostrato un pò gli artigli perchè al momento non si è capito se questa gtx295 và più forte o meno della hd4870x2......stando a quei benchs non direi che è la risposta ad ati.....comunque io voglio vedere altre comparative di siti importanti prima di sparare a zero...........comunque ben venga che la hd4870x2 scende di prezzo.........ciao ciao

quoto!

nj
08-01-2009, 19:33
scusate si sa niente sulla rumorosità ????
Ci sono test attendibili in giro ?

Axelt
08-01-2009, 19:34
scusate si sa niente sulla rumorosità ????
Ci sono test attendibili in giro ?

l'unico test è quello di computerbase (in teoria), e se i dati sono validi l'unico salto di questa vga è sul consumo ridotto!

Cappej
08-01-2009, 19:37
bell'articolo! Bravi come al solito...

Premesso che ste schede High-end sono abbastanza inaccessibili, in linea di massima, credo che qui sia da evidenziare la bontà del Chip Nvidia che, apparte lo "spodestare il trono", riesce ad ottenere prestazioni decisamente superiori, nell'ordine del 20% max, in tutte le applicazioni MAI in deficit verso la soluzione ATI pur CONSUMANDO MENO!
Non scordiamo che anche l'altra è una Dual... 2GPU e 2x1 GB DDR5... e sulla carta, se vogliamo, le componenti di ATI sono decisamenti superiori a partire proprio della GDRAM... sinceramente credo che tutte le soluzioni che Nvidia svilupperà attorno a questa architettura 200b.. saranno dei veri missili... tutto IMHO
ciao

Italia 1
08-01-2009, 19:44
In idle (a riposo) fa poco casino, quando la sfrutti ne fa parecchio :)

Malek86
08-01-2009, 19:46
M, queste schede mostruose mi hanno sempre affascinato, ma allo stesso tempo, non ho mai pensato di comprarne una :D anche quando giocavo seriamente sul PC, mi sono sempre mosso sulla fascia media. E adesso sto sulla fascia bassa perchè gioco principalmente su console.

Sarei più interessato a sapere quando usciranno le nuove schede video di fascia bassa da parte di entrambi i produttori. Spero che il cambio a 55nm (o addirittura 40nm) permetta di fare schede a bassissimo consumo, ma con prestazioni superiori a quelle di ora.

EmmeP
08-01-2009, 19:50
è il solito accrocco supercostoso che tra pochi mesi non varrà più una ceppa..

ho fatto proprio bene a prendermi la gtx260 BE :)

Mparlav
08-01-2009, 19:51
Computerbase è una recensione come un'altra.
Tra l'altro continuano imperterriti a NON testare a 1920x1200 o 1920x1080 che è ormai lo standard di riferimento.
Ergo, andiamoci calmi a dire che sono meglio di altri.

Anche Firingsquad ha testato con AA 8x e con i driver beta (i famigerati "prossimi" driver che cambiano la vita, mai una volta che siano quelli "attuali" :-)

http://www.firingsquad.com/hardware/evga_geforce_gtx_295_performance/page4.asp

ci sono anche i test con CrossfireX e Quad Sli (Fallout 3 a 8xAA e 2560x1600 è cpu limited con un i7 965, non si può proprio vedere :D

Ma vi rimando soprattutto alla pagina con test di rumore e consumo: quella sì che è imperdibile...

Stefem
08-01-2009, 19:56
ho notato che sei molto protettivo nei confronti della nvidia e non dai credito più di tanto a quel sito e quindi anche io ho mostrato un pò gli artigli perchè al momento non si è capito se questa gtx295 và più forte o meno della hd4870x2......stando a quei benchs non direi che è la risposta ad ati.....comunque io voglio vedere altre comparative di siti importanti prima di sparare a zero...........comunque ben venga che la hd4870x2 scende di prezzo.........ciao ciao

Potresti mostrarmi il mio protezionismo per favore?

halduemilauno
08-01-2009, 19:57
Computerbase è una recensione come un'altra.
Tra l'altro continuano imperterriti a NON testare a 1920x1200 o 1920x1080 che è ormai lo standard di riferimento.
Ergo, andiamoci calmi a dire che sono meglio di altri.

Anche Firingsquad ha testato con AA 8x e con i driver beta (i famigerati "prossimi" driver che cambiano la vita, mai una volta che siano quelli "attuali" :-)

http://www.firingsquad.com/hardware/evga_geforce_gtx_295_performance/page4.asp

ci sono anche i test con CrossfireX e Quad Sli (Fallout 3 a 8xAA e 2560x1600 è cpu limited con un i7 965, non si può proprio vedere :D

Ma vi rimando soprattutto alla pagina con test di rumore e consumo: quella sì che è imperdibile...


aggiungo che il grosso(per non dire tutto)della differenza è dato che nella rece tedesca ci sono giochi dx9 vecchiotti e in particolare la presenza di Rs Vegas e di clive barker jerico che alterano non poco la media finale. se si fanno confronti + diretti con i giochi testati dal nostro sito vedrete che la superiorità della gtx295 vi apparirà + evidente.
tutto questo per dirvi che a volte è fuorviante paragonare due rece fatte da siti diversi o cmq ci vuole maggior attenzione.
;)

okorop
08-01-2009, 19:59
aggiungo che il grosso(per non dire tutto)della differenza è dato che nella rece tedesca ci sono giochi dx9 vecchiotti e in particolare la presenza di Rs Vegas e di clive barker jerico che alterano non poco la media finale. se si fanno confronti + diretti con i giochi testati dal nostro sito vedrete che la superiorità della gtx295 vi apparirà + evidente.
;)

quoto

Futura12
08-01-2009, 20:01
è il solito accrocco supercostoso che tra pochi mesi non varrà più una ceppa..

ho fatto proprio bene a prendermi la gtx260 BE :)

gia peccato che la gente non lo capira mai:asd: buon per ati e nvidia che fregano i polli:asd:
Remember:7950GX2,9800GX2,3870X2?:asd:

pioss~s4n
08-01-2009, 20:15
la politica nvidia mi è sempre poco piaciuta. Dalla nomenclatura ai prezzi. Ogni volta che se ne esce col prodotto superiore i prezzi sono spanne sopra la concorrenza, indipendentemente dalla reale (e accertata) superiorità. L'italia rappresenta il connubio perfetto di questa filosofia. :D http://www.computercityhw.it/computercity/ns.asp?wci=prodinfo&lng=1040&cur=3057&cid=7Z1L026953S543YE9E8757VC566489D2&pid=ZCN24646&did=265&sr=0

gotta89
08-01-2009, 20:18
guarda che sono due GT200b

si scusa intendevo 2 schede... errore di battitura...

ABCcletta
08-01-2009, 20:19
Leggi la mia firma :)

Con tutto il rispetto ma il tuo sistema di high end, non ha nulla...

Stech1987
08-01-2009, 20:19
Ma circa la 285 non si sa nulla? Se la 4870x2 cala così tanto con la 295, credo che la 285 uscirà a prezzo simile alla concorrente dualGPU ati, e cmq sicuramente a prezzo inferiore alla 280 a 65nm.. bene bene, si fa davvero interessante... :sbav:

x.vegeth.x
08-01-2009, 20:19
edit

netcrusher
08-01-2009, 20:32
aggiungo che il grosso(per non dire tutto)della differenza è dato che nella rece tedesca ci sono giochi dx9 vecchiotti e in particolare la presenza di Rs Vegas e di clive barker jerico che alterano non poco la media finale. se si fanno confronti + diretti con i giochi testati dal nostro sito vedrete che la superiorità della gtx295 vi apparirà + evidente.
tutto questo per dirvi che a volte è fuorviante paragonare due rece fatte da siti diversi o cmq ci vuole maggior attenzione.
;)

dai ma per piacere che pure su firing squad gli scarti con la hd4870x2 sono minimi, a crysis sta pure d'avanti alla gtx295, siate obiettivi e non di parte......il boost prestazionale dov'è???????

Zermak
08-01-2009, 20:34
Con tutto il rispetto ma il tuo sistema di high end, non ha nulla...
Ma consuma allo stesso modo visto che ho un processore da 89W overclockato con quattro banchi di DDR1 in overclock (a 2,6V), quattro HD da 7200rpm, scheda audio dedicata, scheda video G92 overclockata, tastiera e mouse USB...
L'Enermax da 485W regge tutto senza problemi. Prima avevo il sistema collegato ad un back-UPS dell'APC da 500VA ma poiché non era in grado di gestire il sistema in full load (vedi oltre i 320W) ho dovuto rinunciarvi.

marco_djh
08-01-2009, 20:36
Sebbene io non abbia un giudizio molto positivo per ste schede X2 (sia Ati che nVidia) devo ammettere che quest'ultima ha brutalmente riconquistato il trono di scheda più veloce, anche se a dirla tutta la sfida era impari...2 gpu Ati contro una GTX 280... Anche i consumi sono inferiori alle HD4870X2. Un ottimo prodotto, si spera non venga penalizzato dai driver (vedi 9800GX2)

Axelt
08-01-2009, 20:36
dai ma per piacere che pure su firing squad gli scarti con la hd4870x2 sono minimi, a crysis sta pure d'avanti alla gtx295, siate obiettivi e non di parte......il boost prestazionale dov'è???????

obbiettività.....una parola rara.........

paolox86
08-01-2009, 20:37
Scheda Potentissima vince di netto il braccio di forza con le altre... tutto vero ma non dimentichiamo che questa volta nel settore che conta per i maggior pezzi venduti e il maggior guadagno la vincitrice è stata Ati, quindi non direi proprio "Povera Ati". Cmq comunque ben venga servirà a fare abbassare i prezzi delle altre. Brava Nvidia!

netcrusher
08-01-2009, 20:41
Io gentilmente chiederei a tutte le persone che postano dicendo che mostro di scheda, ha riconquistato il primato di dare delle effettive prove......sto guardando i benchs di firing squad, la hd4870x2 non le prende mica!!!!! anzi le dà alla grande........solo su far cry 2 ho notato un distacco maggiore...comunque stiamo parlando di una scheda da 500 euro contro una che adesso costa 360 euro....ben 140 euro in meno e come vedete dai benchs non è vero proprio che è più veloce della hd4870x2.......nono voglio fare un discorso di parte ma perchè ci si ostina a dire che è più veloce??? bohhhhhh

lore1991
08-01-2009, 20:44
Io gentilmente chiederei a tutte le persone che postano dicendo che mostro di scheda, ha riconquistato il primato di dare delle effettive prove......sto guardando i benchs di firing squad, la hd4870x2 non le prende mica!!!!! anzi le dà alla grande........solo su far cry 2 ho notato un distacco maggiore...comunque stiamo parlando di una scheda da 500 euro contro una che adesso costa 360 euro....ben 140 euro in meno e come vedete dai benchs non è vero proprio che è più veloce della hd4870x2.......nono voglio fare un discorso di parte ma perchè ci si ostina a dire che è più veloce??? bohhhhhh

Il tuo non è un discorso di parte....di piu!!!

terranux
08-01-2009, 20:50
Con questa scheda si può andare avanti per minimo 2 anni!! Invece con ati ogni gioco che esce stai a impazzi con i driver e compagnia bella(rivatuner ati tray e via dicendo)

Daytona
08-01-2009, 20:51
vale + di mille parole...
http://www.hwupgrade.it/articoli/skvideo/2117/4870x2_vs_gtx295.png
"Il margine di vantaggio medio della scheda GeForce GTX 295 sulla soluzione ATI Radeon HD 4870 X2 è pari al 28% alla risoluzione di 1280x1024, al 25% a quella di 1680x1050, al 26% a 1920x1200 e al 22% a quella di 2560x1600. Nell'analizzare tali risultati consigliamo di considerare solo le ultime due, in quanto sono quelle alle quali schede di questa potenza elaborativa devono venir utilizzate per poter beneficiare al meglio della potenza elaborativa che hanno a disposizione."
;)

e questo quante parole vale ?! :p


http://www.piccdrop.com/images/1231444074.jpg

netcrusher
08-01-2009, 20:52
Il tuo non è un discorso di parte....di piu!!!

di parte???? scusa ma perchè si deve mentire se i benchs dicono ben altro?

p.s.
se nvidia è superiore sono pronto ad ammetterlo ma dire per partito preso che sia superiore è anti-sportivo.......

vogliamo parlare un pò dei benchs?
io sono qui.....

Futura12
08-01-2009, 20:56
Con questa scheda si può andare avanti per minimo 2 anni!! Invece con ati ogni gioco che esce stai a impazzi con i driver e compagnia bella(rivatuner ati tray e via dicendo)

se non conosci le schede Ati faresti meglio a non fare falsa informazione,io sti problemi non li ho mai avuti.

Cova86
08-01-2009, 20:56
Si ma come si a giocare a 120 fotogrammi al secondo tipo su cod5?????Ti si frigge il cervello :-)

Axelt
08-01-2009, 20:57
e questo quante parole vale ?! :p


uhmmm!.....quei test nn mi convincono.......

Futura12
08-01-2009, 20:57
Si ma come si a giocare a 120 fotogrammi al secondo tipo su cod5?????Ti si frigge il cervello :-)

uh? online sono pure pochi.....pensa a Quake3 Arena sparato a 1000fps:sbav::asd:

Daytona
08-01-2009, 20:59
uhmmm!.....quei test nn mi convincono.......

non hai mica tutti i torti sai? ;)

C1a0

leoneazzurro
08-01-2009, 21:00
in effetti con i nuovi driver nn c'è + tutta questa differenza..........e addirittura con i filtri caricati la 295 e sotto la 4870x2...............prodigiosi questi "beta"......

Il problema non è nei "beta" ma nella configurazione di test: gli i7 lavorano con il chipset X58 che ha notori problemi con le schede ATI. Ed in particolare con il multi GPU.

Futura12
08-01-2009, 21:02
non hai mica tutti i torti sai? ;)

C1a0

si anche perchè vedo che Crysis WH fa 17fps con la 4850 -.- a 1680 senza filtri , in quale mondo...a me ne faceva esattamente il doppio,e con un procio ben più scarso di un i7:confused:

Kharonte85
08-01-2009, 21:17
Il problema non è nei "beta" ma nella configurazione di test: gli i7 lavorano con il chipset X58 che ha notori problemi con le schede ATI. Ed in particolare con il multi GPU.

Anche perchè i driver usati sono gli stessi...ma specifica meglio: la hd4870 x2 non è un crossfire, l'x58 da' problemi anche sulla dual Gpu? che strano...

ABCcletta
08-01-2009, 21:19
Ma consuma allo stesso modo visto che ho un processore da 89W overclockato con quattro banchi di DDR1 in overclock (a 2,6V), quattro HD da 7200rpm, scheda audio dedicata, scheda video G92 overclockata, tastiera e mouse USB...
L'Enermax da 485W regge tutto senza problemi. Prima avevo il sistema collegato ad un back-UPS dell'APC da 500VA ma poiché non era in grado di gestire il sistema in full load (vedi oltre i 320W) ho dovuto rinunciarvi.

Beh a questo punto gli alimentatori da 600W e > sono inutili. Dillo a chi ha dovuto cambiare il suo "prestantissimo" Enermax da 480W quando ha preso una GTX280 perchè il led della scheda gli segnalava una scarsa alimentazione.

Senza polemica ci mancherebbe, ma ripeto che sto parlando di un sistema high end, e il tuo di high end, non ha nulla nonostante il tdp che citi.

Futura12
08-01-2009, 21:22
Beh a questo punto gli alimentatori da 600W e > sono inutili. Dillo a chi ha dovuto cambiare il suo "prestantissimo" Enermax da 480W quando ha preso una GTX280 perchè il led della scheda gli segnalava una scarsa alimentazione.

Senza polemica ci mancherebbe, ma ripeto che sto parlando di un sistema high end, e il tuo di high end, non ha nulla nonostante il tdp che citi.

dubito che un 485w della Enermax possa dare problemi con una 280GTX.

leoneazzurro
08-01-2009, 21:24
Anche perchè i driver usati sono gli stessi...ma specifica meglio: la hd4870 x2 non è un crossfire, l'x58 da' problemi anche sulla dual Gpu? che strano...

La HD 4870x2 è un crossfire, anche se poi può funzionare anche sulle schede a singolo slot PCI Express. Poi quanto incida questo problema nelle configurazione Crossfire a doppio slot rispetto alla X2 non sono in grado di quantificarlo. Da quel che so, ATI aveva in studio una patch da inserire nei Catalyst 8.12, ma al momento mi risulta che le X2 funzionino ancora meglio su piattaforma Core2 che su piattaforma i7.

LkMsWb
08-01-2009, 21:26
Con questa scheda si può andare avanti per minimo 2 anni!! Invece con ati ogni gioco che esce stai a impazzi con i driver e compagnia bella(rivatuner ati tray e via dicendo)

Basta con la storia dei driver, i problemi li hanno i Catalyst come i Forceware... sarò solo io che mi ricordo le 3 release in fila ai tempi dei 9x dove si corrompevano le texture di Dark Messiah of Might and magic (uscito pochi mesi prima), o Star Wars Republic Commando che su Vista c'ha messo una vita a funzionare (crashava all'avvio, problema driver, era segnalato fra i bug conosciuti), quando su XP lo stesso bug era stato risolto tempo prima. Gioco che avevo finito in precedenza con una X850...

Ripeto, i driver han problemi tanto in casa ATI quanto nVidia, le differenze sono che

1) Con nVidia molti giochi appena usciti sono meglio supportati grazie al programma TWIMTBP...
2) ... ma se ci son problemi non sai quando usciranno dei nuovi driver beta/WHQL, mentre con ATI sai che ogni mese ci sono nuovi driver, nel bene (aggiornamento sicuro) e nel male (in caso di problemi il giorno dopo l'uscita, devi aspettare 1 mese).


Tornando IT: la GTX 295... ottima scheda ma uscita troppo tardi, mesi dopo la 4870X2 e poco prima la 285 che andrà ben valutata in ottica SLI (per chi ne ha bisogno). Per le questioni sopra/sotto HD4870X2, sempre da Computerbase si evince come con AA fino a 4x siano sopra, con 8x il vantaggio di ATI invece si fa impressionante, ma già ai tempi dell'uscita delle 4850 si era notato come le nuove Radeon praticamente non subissero l'effetto della maggiore campionatura di questo filtro.

Kharonte85
08-01-2009, 21:32
La HD 4870x2 è un crossfire, anche se poi può funzionare anche sulle schede a singolo slot PCI Express.
Puo' solo funzionare su un singolo slot pci-ex, ti sfido a metterla una x2 su 2 slot pci-ex :D , intendevo che non è un crossfire di 2 schede che occupa i 2 slot quindi la scheda madre non dovrebbe "teoricamente" avere così tanti problemi a gestirla


Poi quanto incida questo problema nelle configurazione Crossfire a doppio slot rispetto alla X2 non sono in grado di quantificarlo. Da quel che so, ATI aveva in studio una patch da inserire nei Catalyst 8.12, ma al momento mi risulta che le X2 funzionino ancora meglio su piattaforma Core2 che su piattaforma i7.
Ho capito, questo non lo sapevo, quindi le differenze potrebbero essere dovute alla piattaforma di test.

RICKYL74
08-01-2009, 21:35
Che bestia di scheda in tutti i sensi, cmq sono curioso di vedere i test della 285 e di metterne a confronto uno SLI contro questa mastodontica 295.

..Poi sentire che le 4870X2 scenderanno sino alla cifra di 369,00€ IVA inclusa e musica soave, spero ritoccheranno in ribasso anche i prezzi di altre schede.

per il resto e sempre il solo ripetuto marketing. ;)

leoneazzurro
08-01-2009, 21:37
Puo' solo funzionare su un singolo slot pci-ex, ti sfido a metterla una x2 su 2 slot pci-ex :D , intendevo che non occupava i 2 slot quindi la scheda madre non dovrebbe "teoricamente" avere così tanti problemi a gestirla


Ho capito, questo non lo sapevo, quindi le differenze potrebbero essere dovute alla piattaforma di test.

Il problema sembrerebbe derivato a delle particolarità della gestione del PCI-Express da parte dell'X58 rispetto ai chipset precedenti, che crea problemi di ottimizzazione dei drivers ATI nella gestione del multi GPU. Non a caso dopo l'uscita degli i7, AMD si era lamentata con Intel perchè NVidia aveva avuto accesso "privilegiato" alle informazioni sull'ottimizzazione del chipset X58

Daytona
08-01-2009, 21:38
sempre da Computerbase si evince come con AA fino a 4x siano sopra, con 8x il vantaggio di ATI invece si fa impressionante, ma già ai tempi dell'uscita delle 4850 si era notato come le nuove Radeon praticamente non subissero l'effetto della maggiore campionatura di questo filtro.

:eek: quindi tu gli dai quasi per buoni quei bench ....

se fosse così non avrei dubbi a prendere la 4870x2 quando deciderò di giocare a crysis o ad altri titoli completamente in dx10 ...

... per mè i filtri sono fondamentali ! :)

c1a0

Axelt
08-01-2009, 21:41
La HD 4870x2 è un crossfire, anche se poi può funzionare anche sulle schede a singolo slot PCI Express. Poi quanto incida questo problema nelle configurazione Crossfire a doppio slot rispetto alla X2 non sono in grado di quantificarlo. Da quel che so, ATI aveva in studio una patch da inserire nei Catalyst 8.12, ma al momento mi risulta che le X2 funzionino ancora meglio su piattaforma Core2 che su piattaforma i7.

quindi se quello che dici è giusto, i test di computerbase dovrebbero essere + attendibili, visto che quelli fatti da hwupgrade sono penalizzati dalla parziale compatibilità dei driver Ati con le piattaforme i7.........

ninja750
08-01-2009, 21:41
c) la 4870x2 costa 130€ in meno della GTX295

appunto, potresti fare un crossX con 4870x2 e una 4850 :asd:

non capisco come mai, ed è la quarta volta che lo scrivo, come mai su schede così potenti si eseguano ancora test senza filtri

mah

leoneazzurro
08-01-2009, 21:45
quindi se quello che dici è giusto, i test di computerbase dovrebbero essere + attendibili, visto che quelli fatti da hwupgrade sono penalizzati dalla parziale compatibilità dei driver Ati con le piattaforme i7.........

Per quello si devono aspettare altre recensioni su pattaforma Core 2 e confrontarle.

PS: dal mio punto di vista, è ormale che la 295 sia una scheda più potente, essendo pari a due "quasi GTX280" su singola scheda.

gianni1879
08-01-2009, 21:51
se non conosci le schede Ati faresti meglio a non fare falsa informazione,io sti problemi non li ho mai avuti.

il bello che hanno problemi sulle Ati pur non avendole, saremo mosche bianche ma non ho mai avuto problemi... boh

Severnaya
08-01-2009, 21:58
mah...


sinceramente questi discorsi lasciano il tempo che trovano...

io ho sempre visto una scala prezzo\fps in cui le ati e le nvidia si incastrano perfettamente, nessuno ti regala niente, l'nvidia va di più? costa di più, l'ati va di meno? costa di meno

lo stesso dicasi x i processori

poi parlate di ste schede come se tutti voi andrete a comprarle domani, datemi 499€ se ne avete da spender così tanti :V

mrpanino
08-01-2009, 22:15
da incallito giocatore di pc le schede nvidia e qualche ati me le fatte tutte il risultato che ne deduco
è che i soldi spesi quest'anno per xbox360 valgono più di tutte le schede possedute,devono imparare a programmare i giochi e sopratutto farci spendere poco, a Taiwan loro le pagano per farle pochi euro
dei nostri e, a noi poveri utonti che le fanno pagare salatissime.basta che vadano altrove non a
rimbarbirci a noi poveri mortali

Futura12
08-01-2009, 22:20
il bello che hanno problemi sulle Ati pur non avendole, saremo mosche bianche ma non ho mai avuto problemi... boh

Sinceramente neanche io....:)

Futura12
08-01-2009, 22:21
da incallito giocatore di pc le schede nvidia e qualche ati me le fatte tutte il risultato che ne deduco
è che i soldi spesi quest'anno per xbox360 valgono più di tutte le schede possedute,devono imparare a programmare i giochi e sopratutto farci spendere poco, a Taiwan loro le pagano per farle pochi euro
dei nostri e, a noi poveri utonti che le fanno pagare salatissime.basta che vadano altrove non a
rimbarbirci a noi poveri mortali

Non è proprio come dici te,è logico che ci guadagno ma non è che una 280 gli costa 2 euro in fabbrica eh;) ma ben di più sopratutto da appena uscite....prima di affinare i processi produttivi;) poi chi le sviluppa e le crea non li conti? non prendono lo stipendio secondo te?

MiKeLezZ
08-01-2009, 22:28
pessima scelta cromatica per i grafici
partiamo bene, poi...
giallo verde rosso blu arancio grigio nero bordeaux ocra
aò e che è, arlecchino
bastano gradazioni di verde e rosso

zap-e
08-01-2009, 22:36
mah..io non riesco a capire tutti quelli che dicono che ati le abbia prese da invidia,che nvidia alla fine ce l'ha piu' lungo.
LOL
a me sembra che dimenticate un piccolo particolare,cioé che ati da un solo chip e dico UN solo chip da 20 dollari,l'RV770,c'ha tirato fuori un caterva
di schede,dalla 4830 alla 4870X2.. e per un buon periodo di tempo ha anche mantenuto lo scettro di scheda piu' performante del mercato.
nvidia invece si é svenata a correre dietro producendo chip da 100 dollari
(corregetemi se sbaglio,sono sicuro di averlo letto qui da qualche parte)per fare cosa? si ok la 295 é piu' veloce,ma i costi di produzione?
ma che pensate che ati non sarebbe capace di produrre una scheda piu' performante della 295? :asd:
semplicemente,il gioco non vale la candela.
a mio avviso ati é di gran lunga piu' intelligente. alla luce di questo ragionamento..chi ce l'ha piu' lungo? :asd:

lo_straniero
08-01-2009, 22:42
ragazzi ho preso consiglio da voi.

avete ragione a dire che non serve spendere 500€ per avere qualche fps in piu
quindi basta una vga da 200€ ....certo la 4870x2 se si abbassa sotto i 300€ non mi dispiacerebbe :D

sniperspa
08-01-2009, 22:50
ok c'è da aspettare qualche altra rece...

...cmq quoto leoneazzurro...sarebbe anche normale che la 295 andasse di più...sarebbe veramente strano il contrario...

ferro10
08-01-2009, 22:52
devo dire devastante questa skeda video nvidia è sempre la migliore

Futura12
08-01-2009, 22:52
devo dire devastante questa skeda video nvidia è sempre la migliore

che commento costruttivo:asd:

bronzodiriace
08-01-2009, 22:55
su computerbase
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/test_nvidia_geforce_gtx_295/20/#abschnitt_performancerating

ci sono per la Ati i nuovi Catalyst 9.x 8.561.3 Beta (4870 X2) che portano un pò di migliorie percentuali prestazionali alla HD4870x2 rispetto agli 8.11/8.12

abbiamo un +4/8% dovuto solo ai nuovi driver


guardate il rating Rating - 2560x1600 4xAA/16xAF :boh:

ok mi prendo la 295

:asd:

John22
08-01-2009, 23:07
Che cazzata, un milione per dei giochini... Piuttosto prendi due console..

Axelt
08-01-2009, 23:16
il bello che hanno problemi sulle Ati pur non avendole, saremo mosche bianche ma non ho mai avuto problemi... boh

allora sono anch'io nel club delle mosche bianche... visto che: problemi zero!!

WarDuck
08-01-2009, 23:20
Che cazzata, un milione per dei giochini... Piuttosto prendi due console..

E' quello che sento dire da quando 3DFx ha sfornato la Voodoo2 (800.000 lire all'epoca se non sbaglio), e quando nVidia tirò fuori la GeForce 4 Ultra (1.400.000 lire).

Ma la gente se lo dimentica sempre :asd:

I prezzi sono allineati con quello che offre il prodotto IMHO.

Costa troppo? Non te la compri, semplice. Si parla di un prodotto tecnologico appena uscito sul mercato (o forse neanche) e si lamentano del prezzo... giustificato o meno che sia tra qualche tempo la si vedrà a di meno, E' SEMPRE STATO COSI', quindi non capisco proprio di cosa vi lamentiate.

D4N!3L3
08-01-2009, 23:23
Decisamente avendo una GTX 280 aspetto GT300, almeno sarà compatibile con le DX11, di questa ora non me ne faccio niente.

Ottima scheda comunque. :)

bronzodiriace
09-01-2009, 00:05
Che cazzata, un milione per dei giochini... Piuttosto prendi due console..

ovvio che scherzo ;)

Ho già Nintendo Wii e Nds quindi sto apposto e non sarebbe saggio vendere la x2 per la 295 ;)

bs82
09-01-2009, 00:11
...nessuna netta superiorità, ANZI!

Vedo risoluzioni che non si possono usare causa crash dei driver, crolli mostruosi appena si mette l'AA8x ecc ecc ecc

AH, e la scheda in questione ora costa di media 100 euro in più della concorrente.

Quelli che dicono "Ma prendete solo i giochi e le res che vi interessano dove la ati vince".
BON... e qua allora?

Stessa roba "Ma prendete solo i giochi e le res che vi interessano dove la NVIDIA vince!!!"

La gente non gioca solo con i soliti pesanti giochi delle recensioni...anzi... sono di solito i meno venduti (a parte COD).
Le recensioni che sforano un po dalla media, usano tutti giochi anche normali dove guarda un po' chi sta davanti.... si vede moooooolto rosso!

bs82
09-01-2009, 00:22
Mi sono accorto ora che questo articolo non è del corsini! O_o ... Vogliamo le tue considerazioni finaliiiiiiii!

bobby10
09-01-2009, 01:18
Non vale quel che costa anche perchè cosa ha di nuovo? risoluzione 2560*1600...ma chi c@z ce li ha sti monitor???

Zermak
09-01-2009, 01:25
Beh a questo punto gli alimentatori da 600W e > sono inutili. Dillo a chi ha dovuto cambiare il suo "prestantissimo" Enermax da 480W quando ha preso una GTX280 perchè il led della scheda gli segnalava una scarsa alimentazione.
Lo dico da un po', frequentando la sezione consigli per gli acquisti, che ad oggi alimentatori attorno ai 500W per un sistema di buona qualità sono più che adeguati. Molto meglio un Enermax o Corsair o Seasonic da 450W che un OEM da 600W considerando la qualità dei componenti e la qualità della coorente (se me lo passate :)).
a GTX280 il mio alimentatore potrebbe reggerla ma forse dovrei rinunciare a qualche HD. Sicuramente se avessi una piattaforma più recente, e quindi più efficiente, non avrei problemi.
Senza polemica ci mancherebbe, ma ripeto che sto parlando di un sistema high end, e il tuo di high end, non ha nulla nonostante il tdp che citi.
Lungi da me definire il mio sistema high-end, ci mancherebbe, ma sicuramente il mio richiederà più Watt di un sistema attuale che ha, ovviamente, anche maggiori prestazioni.

mrt75
09-01-2009, 02:05
E' quello che sento dire da quando 3DFx ha sfornato la Voodoo2 (800.000 lire all'epoca se non sbaglio), e quando nVidia tirò fuori la GeForce 4 Ultra (1.400.000 lire).

Ma la gente se lo dimentica sempre :asd:

I prezzi sono allineati con quello che offre il prodotto IMHO.

Costa troppo? Non te la compri, semplice. Si parla di un prodotto tecnologico appena uscito sul mercato (o forse neanche) e si lamentano del prezzo... giustificato o meno che sia tra qualche tempo la si vedrà a di meno, E' SEMPRE STATO COSI', quindi non capisco proprio di cosa vi lamentiate.

Quoto in pieno,ed aggiungo,che, xche criticare sempre x il prezzo quando 1 cosa non si e' obbligati a prenderla e si puo farne a meno!,forse voglia di possederla?
Poi vedo gente che si lamenta di consumi di bolletta e inquinamento,poi li vedi buttar via (esemp.) pile x la strada o batterie nel fiume o magari andare in bar a 300 metri in macchina ecc ecc.

X me e' un'ottima scheda e molto potente,ma non la prenderei xche il multi Gpu o lo sli a me non piaccciono,troppi problemi di driver e pach sui giochi secondo me.Cmq si e' riconfermata Nvidia a livello prestazzionale rispetto ad Ati ,sia in dual che in singolo e questo e solo l'antipasto.

mrt75
09-01-2009, 02:17
...nessuna netta superiorità, ANZI!

Vedo risoluzioni che non si possono usare causa crash dei driver, crolli mostruosi appena si mette l'AA8x ecc ecc ecc

AH, e la scheda in questione ora costa di media 100 euro in più della concorrente.

Quelli che dicono "Ma prendete solo i giochi e le res che vi interessano dove la ati vince".
BON... e qua allora?

Stessa roba "Ma prendete solo i giochi e le res che vi interessano dove la NVIDIA vince!!!"

La gente non gioca solo con i soliti pesanti giochi delle recensioni...anzi... sono di solito i meno venduti (a parte COD).
Le recensioni che sforano un po dalla media, usano tutti giochi anche normali dove guarda un po' chi sta davanti.... si vede moooooolto rosso!

Allora aspettiamo altre rece ma la cosa non cabiera' di molto,la 295 va di piu'.
Ma tu pensi che AMD se avesse 1 scheda che adasse un 20% in piu' della concorrenza te la farebbe pagare uguale alla rivale che va meno?
Non capisco il xche si e' cosi attaccati al brand .che sia 1 o l'altro ,appena 1 va di piu dell'altra vedo gente che,siccome la "sua" va meno attacca in ogni modo l'altra x dire che cmq la sua e meglio x questo o quel motivo Mha......

Mantis86
09-01-2009, 02:19
buonasera gentili navigatori,
Come sempre prima di andare a nanna ripasso su hardware upgrade per leggermi un po di news e come al solito leggo flames da tutte le parti. Mi va quindi di chiarire un paio di punti della recensione e dei vari commenti.
Anzitutto non mi ritengo un massimo esperto di hardware ma neppure uno sprovveduto. Non patteggio ne ati ne nvidia, ma valuto sempre il prodotto migliore per fare il mio acquisto, infatti dopo molti anni sono tornato ad ati. Quello che mi preme non e flamare ma solamente spiegare con 2 dati presi qua e la come non e tutto oro colato quel 25% in piu di potenza della 295.
Questo lo dico perche molte persone si basano solo su hardwareupgrade.it per fare le loro valutazioni. Non credo abbiate solo quel sito nei preferiti no? Allora perche non guardate cosa dicono le recensioni di hardware secrets, computer base, hardware chanuks (etc.)? I risultati non si prendono per veri singolarmente. Per dire quanta pioggia cade in media in un annk si usano vari dati presi in vari posti per molti molti anni. Stessa cosa per i benchmarks. Tanti siti, tanti pc diversi, tanti dati diversi. E i dati dicono in media diversamente da quanto si sbandiera qui. Per ora su 10 siti letti vedo una media maggiore del 10% rispetto a 4870x2, mentre qui il 25%. Quindi o ati ha comprato tutti i siti di hardware tolto questo, oppure qui i dati sono poco oggettivi e soprattutto con pochi titoli e sempre gli stessi. Ok non mettiamo piu hl2 che e vecchio ma mettiamo 10 giochi almeno, magari solo warhead senza crysis.
In conclusione lo smacco vero e proprio io non lo vedo ancora. Il 30% in piu per il 10% in piu di prestazioni non vale l'acquisto. Non e una fanboyata e una constatazione.
Ps: ora qualcuno dira ma quando hai preso la tua ati la anche la 280 costava meno. Si certo ma costava il 10% in meno e andava il 25% in meno. Li conveniva qui no

Pace e amore a tutti i fanboy ati e nvidia. E ricordate la qualita prezzo, non solo il prezzo o la qualita ;)

Crimson Skies
09-01-2009, 02:47
Una scheda stupenda.

DarkVampire
09-01-2009, 03:18
come volevasi dimostrare....ati raggiunge nvidia e avvolte supera, solo in dual gpu (con tutti i problemi ke ha il crossfire tra l'altro)....ma facciamo un dual gpu anke a nvidia.....ati mangia solo polvere... e consuma sugli stessi livelli...ki la vince mi sembra troppo ovvio per dirlo...

voglio fare mia la 285 :P

netbandit
09-01-2009, 06:51
la aspettavo! MIA ;-)

NLDoMy
09-01-2009, 06:54
come volevasi dimostrare....ati raggiunge nvidia e avvolte supera, solo in dual gpu (con tutti i problemi ke ha il crossfire tra l'altro)....ma facciamo un dual gpu anke a nvidia.....ati mangia solo polvere... e consuma sugli stessi livelli...ki la vince mi sembra troppo ovvio per dirlo...

voglio fare mia la 285 :P

Clock GPU
295 -> 576 MHz
4870x2 -> 750 MHz

Clock memoria
295-> 1998 MHz
4870x2 -> 3.600 MHz ci credo che consuma di più, ma se guardi bene non consuma poi più di tanto la 4870x2, vorrei vedere la 295 con gddr5 a quelle frequenze

le memorie sono sempre gddr3 e le gpu sono delle 280, anche ati se non erro sta "rimaneggiando" gli rv770, e sul 3d delle 4850 (ovviamente di parte) ho letto che attendevano il confronto tra i primi rv770 e i nuovi
-> della 4870x2 devono risolvere, a mio avviso, il problema di rumorosità e consumo - delle temp invece si risolve con ATT -

tra le 2 visti i prezzi e visti i miglioramenti percentuali prenderei la 4870x2, se davvero poi uscisse una versione migliorata della gpu anche meglio sempre sulla stessa linea di prezzo

beppe8682
09-01-2009, 08:53
che paninazzo con la mortazza!
ma quando esce la fetta di pane singola col philadelphia?:)

Scorpitron
09-01-2009, 09:35
che mostro! e dire che utilizza ancora le "vecchie" gddr3 figuriamoci con le gddr5 che potenza sono in grado di scatenare O_O

al135
09-01-2009, 09:48
Una scheda stupenda.

e quando era uscita la 9700pro o la 8800gtx o la 4870 che facevi andavi per strada e urlavi nudo? :D

buonasera gentili navigatori,
Come sempre prima di andare a nanna ripasso su hardware upgrade per leggermi un po di news e come al solito leggo flames da tutte le parti. Mi va quindi di chiarire un paio di punti della recensione e dei vari commenti.
Anzitutto non mi ritengo un massimo esperto di hardware ma neppure uno sprovveduto. Non patteggio ne ati ne nvidia, ma valuto sempre il prodotto migliore per fare il mio acquisto, infatti dopo molti anni sono tornato ad ati. Quello che mi preme non e flamare ma solamente spiegare con 2 dati presi qua e la come non e tutto oro colato quel 25% in piu di potenza della 295.
Questo lo dico perche molte persone si basano solo su hardwareupgrade.it per fare le loro valutazioni. Non credo abbiate solo quel sito nei preferiti no? Allora perche non guardate cosa dicono le recensioni di hardware secrets, computer base, hardware chanuks (etc.)? I risultati non si prendono per veri singolarmente. Per dire quanta pioggia cade in media in un annk si usano vari dati presi in vari posti per molti molti anni. Stessa cosa per i benchmarks. Tanti siti, tanti pc diversi, tanti dati diversi. E i dati dicono in media diversamente da quanto si sbandiera qui. Per ora su 10 siti letti vedo una media maggiore del 10% rispetto a 4870x2, mentre qui il 25%. Quindi o ati ha comprato tutti i siti di hardware tolto questo, oppure qui i dati sono poco oggettivi e soprattutto con pochi titoli e sempre gli stessi. Ok non mettiamo piu hl2 che e vecchio ma mettiamo 10 giochi almeno, magari solo warhead senza crysis.
In conclusione lo smacco vero e proprio io non lo vedo ancora. Il 30% in piu per il 10% in piu di prestazioni non vale l'acquisto. Non e una fanboyata e una constatazione.
Ps: ora qualcuno dira ma quando hai preso la tua ati la anche la 280 costava meno. Si certo ma costava il 10% in meno e andava il 25% in meno. Li conveniva qui no

Pace e amore a tutti i fanboy ati e nvidia. E ricordate la qualita prezzo, non solo il prezzo o la qualita ;)

la pensiamo in tutto e per tutto allo stesso modo ;)

Pr|ckly
09-01-2009, 09:51
Buona scheda ma come diceva qualcuno atta solo a mostrare chi ce l'ha più lungo. Mi tengo stretta la mia in signa ma anche se dovessi comprare una nVidia non lo faccio per un forno del genere, basta e avanza un modello inferiore per giocare bene a tutto, anche a risoluzioni alte.
Imho è benvenuta solo perchè abbassa i prezzi delle altre schede sul mercato.

Per il resto si leggono commenti fanboystici (da ambo le parti) da mettersi le mani nei capelli. :asd:

al135
09-01-2009, 09:51
che mostro! e dire che utilizza ancora le "vecchie" gddr3 figuriamoci con le gddr5 che potenza sono in grado di scatenare O_O

nessuna :D
la banda passante è gia sufficiente cosi ;)

mistero1982
09-01-2009, 10:40
Forse non vi è chiara la mossa di ATI: è da agosto 2008 che sono in circolazione le 4870x2... e nvidia tira fuori questo "mostro" soltanto a gennaio 2009... Adesso "dovrebbe" rispondere ATI chissa con che cosa... e dobbiamo gioire tutti perchè queste mosse stroncaconcorrenza non danno altro risultato che un continuo abbassamento di prezzi.

netcrusher
09-01-2009, 10:57
molti pensano che dietro alle polemiche sollevate da alcuni utenti come me ci sia del fanboyismo, questo denota chiaramente l'incapacità di chi valuta in questo modo di carpire il vero messaggio......io ho semplicemente obiettato questa superiorità schiacciante di nvidia su ati basandomi sui benchmarks visti, se nvidia è avanti ben venga così almeno la competizione non si spegne come fu ai tempi della 8800 gtx..........perchè c'avete il paraocchi e guardate sempre una critica come di parte????? io veramente non capisco...........a questo punto ritengo che chi ne capisce in questo forum sono davvero pochi.........perchè non crescete un pò????? (riferito a chi spara sentenze a caso senza analizzare nulla.....)

Axelt
09-01-2009, 10:58
Forse non vi è chiara la mossa di ATI: è da agosto 2008 che sono in circolazione le 4870x2... e nvidia tira fuori questo "mostro" soltanto a gennaio 2009... Adesso "dovrebbe" rispondere ATI chissa con che cosa... e dobbiamo gioire tutti perchè queste mosse stroncaconcorrenza non danno altro risultato che un continuo abbassamento di prezzi.

....infatti! è quello che interessa principalmente

Axelt
09-01-2009, 11:01
molti pensano che dietro alle polemiche sollevate da alcuni utenti come me ci sia del fanboyismo, questo denota chiaramente l'incapacità di chi valuta in questo modo di carpire il vero messaggio......io ho semplicemente obiettato questa superiorità schiacciante di nvidia su ati basandomi sui benchmarks visti, se nvidia è avanti ben venga così almeno la competizione non si spegne come fu ai tempi della 8800 gtx..........perchè c'avete il paraocchi e guardate sempre una critica come di parte????? io veramente non capisco...........a questo punto ritengo che chi ne capisce in questo forum sono davvero pochi.........perchè non crescete un pò????? (riferito a chi spara sentenze a caso senza analizzare nulla.....)

quoto!......il problema comunque è sempre lo stesso, chi è un fanboy sia di Ati che di Nvidia difficilmente riesce a vedere le cose in modo oggettivo........

netcrusher
09-01-2009, 11:06
quoto!......il problema comunque è sempre lo stesso, chi è un fanboy sia di Ati che di Nvidia difficilmente riesce a vedere le cose in modo oggettivo........

Ovvio che è così però i fanboy sono i primi ignoranti che non capiscono un beneamato kaspita di hardware, basta che hanno in mano la top di gamma e si sentono realizzati......che idioti........meglio passarci sopra e dimostrare con i dati quanto si asserisce..........vabbè il mondo è strapieno di gente così oramai........

2012comin
09-01-2009, 11:15
il bello che hanno problemi sulle Ati pur non avendole, saremo mosche bianche ma non ho mai avuto problemi... boh

io in circa 10 anni di schede video (ho avuto 4 ATI e 2 Nvidia) ho avuto un solo problema con una ATI su GTA SA (risolto in pochi minuti) e un paio di problemi con una Nvidia con f.e.a.r. (anche questi risolti in pochi minuti).

3 problemi in 10 anni direi che sono irrilevanti :)

edit pensandoci meglio... meno di 10 anni :P

M@tteo79
09-01-2009, 11:21
nessuna :D
la banda passante è gia sufficiente cosi ;)

"Con alcuni titoli si evidenzia un riallineamento delle prestazioni tra le due schede, fenomeno che fa ritenere i frames limitati più dalla bandwidth della memoria e dalla dotazione di quest'ultima che dalla potenza di elaborazione delle GPU e degli stream processors."

:D

bs82
09-01-2009, 11:25
Non è il caso di prendere per buone e senza difetti tutte le considerazioni di questa recensione eh...

Mantis86
09-01-2009, 11:30
e quando era uscita la 9700pro o la 8800gtx o la 4870 che facevi andavi per strada e urlavi nudo? :D



la pensiamo in tutto e per tutto allo stesso modo ;)

;)


Comunque questa mi ha fatto pisciare come battuta...

... ma da uno sli di GTX295 (magari 3) cosa viene fuori? :)

un forno a legna.

seph87
09-01-2009, 11:33
Mi sa che hai sbagliato un calcolo. Se la scheda richiede 421W in condizioni di stress, un alimentatore di ottima qualità ( con 85% di efficenza quindi ) dovrebbe essere di almeno 421/0.85= 495 W..Per evitare di fare spegnere il computer quindi, bisognerebbe quindi prendersi un alimentatore con 85% di efficenza e minimo ma proprio minimo 600W .



senza offesa, ma hai le idee un po consfuse ;)

Pr|ckly
09-01-2009, 12:07
Ovvio che è così però i fanboy sono i primi ignoranti che non capiscono un beneamato kaspita di hardware, basta che hanno in mano la top di gamma e si sentono realizzati......che idioti........meglio passarci sopra e dimostrare con i dati quanto si asserisce..........vabbè il mondo è strapieno di gente così oramai........

Ma si, nVidia si conferma ancora una volta, come successo spesso negli ultimi anni, con la scheda top del mercato.
Questo è chiaro e nessuno lo nega ma siamo di fronte ad una scheda inutile ed esagerata come prezzo, non tanto in proporzione alle prestazioni che in parte lo giustificano, ma quanto alle alternative presenti sul mercato.
E non parlo solo di Ati che sicuramente ha proposto alcune delle migliori soluzioni in base al rapporto prezzo-prestazioni degli ultimi tempi ma anche della stessa nVidia.

al135
09-01-2009, 12:10
"Con alcuni titoli si evidenzia un riallineamento delle prestazioni tra le due schede, fenomeno che fa ritenere i frames limitati più dalla bandwidth della memoria e dalla dotazione di quest'ultima che dalla potenza di elaborazione delle GPU e degli stream processors."

:D

mi era sfuggita, pero' strana come cosa...
forse si verifica solo in alcuni casi e risoluzioni molto ma molto elevate (tipo 2560...) :confused:

herger
09-01-2009, 12:27
Scusate l'ignoranza, so che il target di "lavoro" è diverso... Ma questa nuova GeForce, come andrebbe paragonata a una Quadro? Grazie in anticipo

Herger

MikTaeTrioR
09-01-2009, 12:28
180 w idle, 400 full load..........ma stiamo scherzando!?!?!???!??!?!??!?!??!?!?

Stefem
09-01-2009, 12:37
180 w idle, 400 full load..........ma stiamo scherzando!?!?!???!??!?!??!?!??!?!?

Guarda che sono i consumi dell'intero sistema, CPU, RAM, HD, ecc.

ninja750
09-01-2009, 12:40
E' quello che sento dire da quando 3DFx ha sfornato la Voodoo2 (800.000 lire all'epoca se non sbaglio), e quando nVidia tirò fuori la GeForce 4 Ultra (1.400.000 lire).

Ma la gente se lo dimentica sempre :asd:

la voodoo2 8mb la pagai 420.000£ appena uscita non certo 800K

quindi fanno 200€ circa e all'epoca era la più cara vga (anzi, acceleratore grafico) mai vista

Free Gordon
09-01-2009, 12:43
come al solito i driver fanno la loro parte!

Secondo me in quella rece ci sono anche degli errori.

Non è possibile che con una una release di driver (ma anche più d'una) si giuadagni il 40%....

Obi 2 Kenobi
09-01-2009, 12:51
mamma mia che schifo. Ai consumi ormai non ci pensa più nessuno :(

Axelt
09-01-2009, 12:55
mamma mia che schifo. Ai consumi ormai non ci pensa più nessuno :(

basta cambiare il contratto da 3 Kw a 6 Kw e il gioco è fatto....:asd:






.....anche la bolletta è "fatta"!! :D

Kelainefes
09-01-2009, 12:56
Scheda superpotente, sono quasi sicuro che andrà di più della HD4870X2 nella stragrande maggioranza di giochi.
Ma a che prezzo.... Io direi che sono piu che soddisfatto della mia HD4870, e sinceramente il massimo che io potrei concepire sarebbe la HD4850X2, che costava prima del ribasso sui 280, e ha prestazioni simili a una singola GTX280.
La HD4870X2 e la GTX295 sono piu campagne pubblicitarie che schede video, questo perchè c'è gente che pensa che se il produttore X ha la scheda più veloce in assoluto, allora QUALSIASI sua scheda sarà migliore di quella della stessa fascia di prezzo della concorrenza...
Se avessi 500€ da spenderre per una scheda video ora come ora prenderei una scheda da 200-250 (chesso una bella nVIDIA GTX260 occata) e conserverei gli altri per comprarne una nuova quando escono le schede DX11.

Axelt
09-01-2009, 13:02
Scheda superpotente, sono quasi sicuro che andrà di più della HD4870X2 nella stragrande maggioranza di giochi.
Ma a che prezzo.... Io direi che sono piu che soddisfatto della mia HD4870, e sinceramente il massimo che io potrei concepire sarebbe la HD4850X2, che costava prima del ribasso sui 280, e ha prestazioni simili a una singola GTX280.
La HD4870X2 e la GTX295 sono piu campagne pubblicitarie che schede video, questo perchè c'è gente che pensa che se il produttore X ha la scheda più veloce in assoluto, allora QUALSIASI sua scheda sarà migliore di quella della stessa fascia di prezzo della concorrenza...
Se avessi 500€ da spenderre per una scheda video ora come ora prenderei una scheda da 200-250 (chesso una bella nVIDIA GTX260 occata) e conserverei gli altri per comprarne una nuova quando escono le schede DX11.


e purtroppo di questa gente c'è ne tanta in giro..............................:rolleyes:

l'ignoranza regna sovrana........

Maphia88
09-01-2009, 14:11
senza offesa, ma hai le idee un po consfuse ;)

non ti preoccupare.nessuna offesa dato che avevo gia ammesso il mio errore..:) avevo capito che la scheda consumasse 421 w, ( calcolati dopo l'alimentatore) e quindi cèra bisogno di 421/0.85= 495 w da parte dell alimentatore..ma poi mi hanno fatto vedere che son 421w calcolati alla presa del muro.

Herr Fritz 27
09-01-2009, 14:16
Avrei un paio di domande da fare per sapere se ho capito bene:

Prima domanda:

- 965 + X58 + 6GB + 2HD:
Idle = 127W
Full = 255W
- GTX 295 + 965 + X58 + 6GB + HD:
Idle = 180W
"Full" = 421W
- HD 4870X2 + 965 + X58 + 6GB + HD:
Idle = 225W
"Full" = 461W
- QX9770 + X48 + 4GB + 2HD:
Full = 194W
- HD 4870X2 + QX9770 + X48 + 4GB + HD:
Full = 530W

Concordate con me nel dire che era solo la GPU ad essere sotto stress (nella recensione si parla solo di shadermark e non anche di orthos) oppure la ATI ha ridotto i propri consumi di 60W passando dalla piattaforma X48 + QX9770 alla X58 + 965?
Alla luce di ciò, facendo due sottrazioni e due somme qualitative:

- GTX 295 + 965 + X58 + 6GB + HD:
Idle = 180W
Full (Orthos + Shadermark) = 549W
- HD 4870X2 + 965 + X58 + 6GB + HD:
Idle = 225W
Full (Orthos + Shadermark) = 591W

O ho sbagliato ancora?
Se sbaglio correggetemi, con l'elettricità ho sempre fatto a pugni io, e comunque c'è sempre qualcosa da imparare...

Seconda domanda

Gli schermi LCD i commercio hanno frequenze di aggiornamento al massimo (mi pare) di 100 Hz, ossia 100 aggiornamenti al secondo. Se ho una scheda che mi fa 120 FPS, non perdo per strada 20 FPS? Se fosse così, il fatto di avere 120 FPS serve solo per dire "io ce l'ho più lungo", andando a perdere il vantaggio di avere VGA più performanti perchè castrati dallo schermo?

Come sempre, se sbaglio, vi prego di correggermi!!!

Grazie per le risposte

Ciao

Tioz90
09-01-2009, 14:22
Avrei un paio di domande da fare per sapere se ho capito bene:

Prima domanda:

- 965 + X58 + 6GB + 2HD:
Idle = 127W
Full = 255W
- GTX 295 + 965 + X58 + 6GB + HD:
Idle = 180W
"Full" = 421W
- HD 4870X2 + 965 + X58 + 6GB + HD:
Idle = 225W
"Full" = 461W
- QX9770 + X48 + 4GB + 2HD:
Full = 194W
- HD 4870X2 + QX9770 + X48 + 4GB + HD:
Full = 530W

Concordate con me nel dire che era solo la GPU ad essere sotto stress (nella recensione si parla solo di shadermark e non anche di orthos) oppure la ATI ha ridotto i propri consumi di 60W passando dalla piattaforma X48 + QX9770 alla X58 + 965?
Alla luce di ciò, facendo due sottrazioni e due somme qualitative:

- GTX 295 + 965 + X58 + 6GB + HD:
Idle = 180W
Full (Orthos + Shadermark) = 549W
- HD 4870X2 + 965 + X58 + 6GB + HD:
Idle = 225W
Full (Orthos + Shadermark) = 591W

O ho sbagliato ancora?
Se sbaglio correggetemi, con l'elettricità ho sempre fatto a pugni io, e comunque c'è sempre qualcosa da imparare...

Seconda domanda

Gli schermi LCD i commercio hanno frequenze di aggiornamento al massimo (mi pare) di 100 Hz, ossia 100 aggiornamenti al secondo. Se ho una scheda che mi fa 120 FPS, non perdo per strada 20 FPS? Se fosse così, il fatto di avere 120 FPS serve solo per dire "io ce l'ho più lungo", andando a perdere il vantaggio di avere VGA più performanti perchè castrati dallo schermo?

Come sempre, se sbaglio, vi prego di correggermi!!!

Grazie per le risposte

Ciao
Beh avere una scheda che ti fa 50fps medi in un gioco ti dà 20fps di "scorta" da "spendere" nelle scene più complicate in modo da mantenere sempre la fluidità
Se ho un monitor a 60Hz la cosa migliore sarebbe essere sempre sopra 60fps

sniperspa
09-01-2009, 14:28
e purtroppo di questa gente c'è ne tanta in giro..............................:rolleyes:

l'ignoranza regna sovrana........

Quoto...ma tanto la maggior parte di quelli che comprano pc preassemblati è già tanto se sanno cos'è un scheda video...

netcrusher
09-01-2009, 14:32
Avrei un paio di domande da fare per sapere se ho capito bene:

Prima domanda:

- 965 + X58 + 6GB + 2HD:
Idle = 127W
Full = 255W
- GTX 295 + 965 + X58 + 6GB + HD:
Idle = 180W
"Full" = 421W
- HD 4870X2 + 965 + X58 + 6GB + HD:
Idle = 225W
"Full" = 461W
- QX9770 + X48 + 4GB + 2HD:
Full = 194W
- HD 4870X2 + QX9770 + X48 + 4GB + HD:
Full = 530W

Concordate con me nel dire che era solo la GPU ad essere sotto stress (nella recensione si parla solo di shadermark e non anche di orthos) oppure la ATI ha ridotto i propri consumi di 60W passando dalla piattaforma X48 + QX9770 alla X58 + 965?
Alla luce di ciò, facendo due sottrazioni e due somme qualitative:

- GTX 295 + 965 + X58 + 6GB + HD:
Idle = 180W
Full (Orthos + Shadermark) = 549W
- HD 4870X2 + 965 + X58 + 6GB + HD:
Idle = 225W
Full (Orthos + Shadermark) = 591W

O ho sbagliato ancora?
Se sbaglio correggetemi, con l'elettricità ho sempre fatto a pugni io, e comunque c'è sempre qualcosa da imparare...

Seconda domanda

Gli schermi LCD i commercio hanno frequenze di aggiornamento al massimo (mi pare) di 100 Hz, ossia 100 aggiornamenti al secondo. Se ho una scheda che mi fa 120 FPS, non perdo per strada 20 FPS? Se fosse così, il fatto di avere 120 FPS serve solo per dire "io ce l'ho più lungo", andando a perdere il vantaggio di avere VGA più performanti perchè castrati dallo schermo?

Come sempre, se sbaglio, vi prego di correggermi!!!

Grazie per le risposte

Ciao

non mi pare che ci siano monitor con un refresh da 100 hz, specie a risoluzioni elevate dove non si và oltre i 60 hz , io ho un 24 pollici e a 1920x1200 non esiste la frequenza superiore a 60.......ciao ciao

RICKYL74
09-01-2009, 14:38
buonasera gentili navigatori,
Come sempre prima di andare a nanna ripasso su hardware upgrade per leggermi un po di news e come al solito leggo flames da tutte le parti. Mi va quindi di chiarire un paio di punti della recensione e dei vari commenti.
Anzitutto non mi ritengo un massimo esperto di hardware ma neppure uno sprovveduto. Non patteggio ne ati ne nvidia, ma valuto sempre il prodotto migliore per fare il mio acquisto, infatti dopo molti anni sono tornato ad ati. Quello che mi preme non e flamare ma solamente spiegare con 2 dati presi qua e la come non e tutto oro colato quel 25% in piu di potenza della 295.
Questo lo dico perche molte persone si basano solo su hardwareupgrade.it per fare le loro valutazioni. Non credo abbiate solo quel sito nei preferiti no? Allora perche non guardate cosa dicono le recensioni di hardware secrets, computer base, hardware chanuks (etc.)? I risultati non si prendono per veri singolarmente. Per dire quanta pioggia cade in media in un annk si usano vari dati presi in vari posti per molti molti anni. Stessa cosa per i benchmarks. Tanti siti, tanti pc diversi, tanti dati diversi. E i dati dicono in media diversamente da quanto si sbandiera qui. Per ora su 10 siti letti vedo una media maggiore del 10% rispetto a 4870x2, mentre qui il 25%. Quindi o ati ha comprato tutti i siti di hardware tolto questo, oppure qui i dati sono poco oggettivi e soprattutto con pochi titoli e sempre gli stessi. Ok non mettiamo piu hl2 che e vecchio ma mettiamo 10 giochi almeno, magari solo warhead senza crysis.
In conclusione lo smacco vero e proprio io non lo vedo ancora. Il 30% in piu per il 10% in piu di prestazioni non vale l'acquisto. Non e una fanboyata e una constatazione.
Ps: ora qualcuno dira ma quando hai preso la tua ati la anche la 280 costava meno. Si certo ma costava il 10% in meno e andava il 25% in meno. Li conveniva qui no

Quoto il senso del tuo discorso ma.....
non credo che all'nVidia fossero così matti da commercializzare in questo momento una scheda che andasse solo un 10% in più della 4870X2 ad un prezzo vicino alle 500€, fermo restando che rimane comunque un operazione di marketing contro la rivale non c'è ombra di dubbio che questa 295 sia migliore sotto ogni profilo rispetto alla rivale fosse anche un semplice 10% ma non dimentichiamo i consumi, rumore, dissipazione, etc.. Di certo nessuno sano di mente sostituirebbe la sua scheda video acquistando una 295, ma chi invece assembla ora e punta ad avere "parlando in stile marketing" il top! adesso il top a la nVidia GTX295. Aspettanto la risposta di AMD/ATI,
io invece aspetto i test sulla 285, e spero che abbiano migliorato la riproduzione dei filmati hd unico neo di ste schede nVidia.

halduemilauno
09-01-2009, 14:40
cmq approposito di driver questi sono gli incrementi che offrono gli ultimi ati utilizzati da tutte le rece...
http://www.computerbase.de/artikel/hardware/grafikkarten/2009/bericht_ati_catalyst_9x_beta/10/#abschnitt_performancerating
e questi invece gli analoghi incrementi di nvidia non utilizzati da alcuna rece...
http://www.hardware-infos.com/tests.php?test=52&seite=11
in molte son stati usati i 180.48. tutto questo senza polemica solo per chiarezza.
;)

ps in alcune son stati utilizzati i 181.20 non presenti in quel confronto.

Obi 2 Kenobi
09-01-2009, 14:52
basta cambiare il contratto da 3 Kw a 6 Kw e il gioco è fatto....:asd:






.....anche la bolletta è "fatta"!! :D

ah ecco :asd:

sniperspa
09-01-2009, 15:04
Quoto il senso del tuo discorso ma.....
non credo che all'nVidia fossero così matti da commercializzare in questo momento una scheda che andasse solo un 10% in più della 4870X2 ad un prezzo vicino alle 500€, fermo restando che rimane comunque un operazione di marketing contro la rivale non c'è ombra di dubbio che questa 295 sia migliore sotto ogni profilo rispetto alla rivale fosse anche un semplice 10% ma non dimentichiamo i consumi, rumore, dissipazione, etc.. Di certo nessuno sano di mente sostituirebbe la sua scheda video acquistando una 295, ma chi invece assembla ora e punta ad avere "parlando in stile marketing" il top! adesso il top a la nVidia GTX295. Aspettanto la risposta di AMD/ATI,
io invece aspetto i test sulla 285, e spero che abbiano migliorato la riproduzione dei filmati hd unico neo di ste schede nVidia.

Potrebbe pure essere che questa 295 abbia grandi potenzialità ma soffra ancora di qualche problema driver :stordita:

Herr Fritz 27
09-01-2009, 15:27
Beh avere una scheda che ti fa 50fps medi in un gioco ti dà 20fps di "scorta" da "spendere" nelle scene più complicate in modo da mantenere sempre la fluidità.


Ok, se parliamo in quest'ottica allora ti do pienamente ragione, anche perchè questo mi consentirebbe di spendere gli FPS in più (o più in generale quelli oltre i 45-60 FPS) per dilazionare nel tempo le spese, altrimenti, secondo me, queste schede servono veramente solo per i benchmark e basta.

non mi pare che ci siano monitor con un refresh da 100 hz, specie a risoluzioni elevate dove non si và oltre i 60 hz , io ho un 24 pollici e a 1920x1200 non esiste la frequenza superiore a 60.......ciao ciao

Il 100 Hz era una cifra sparata a caso, volevo solo prendere un numero inferiore di Hz rispetto gli FPS prodotti dalla VGA... anche perchè 100Hz per alte risoluzioni devi andare sui 32" e oltre per incominciare a vedere qualche pannello Full HD con quella frequenza di refresh...

Ciao

Stefem
09-01-2009, 15:54
non mi pare che ci siano monitor con un refresh da 100 hz, specie a risoluzioni elevate dove non si và oltre i 60 hz , io ho un 24 pollici e a 1920x1200 non esiste la frequenza superiore a 60.......ciao ciao

In realtà ci sono monitor LCD, anche 22" o 24", che offrono un refreshrate di 120Hz su tutte le risoluzioni supportate.

netcrusher
09-01-2009, 16:09
In realtà ci sono monitor LCD, anche 22" o 24", che offrono un refreshrate di 120Hz su tutte le risoluzioni supportate.

quali sono potresti linkarmi???? penso costino un botto però.......

appleroof
09-01-2009, 16:27
....da 1680 con AA in su.... sulla review di computerbase prende sonore bastonate.
Saranno i catalyst 9 beta?

anche i driver Nvidia possono migliorare le prestazioni della gtx295, e siamo punto e capo

....ma poi cosa vi aspettavate? rv770 è mediamente sotto a gt200 (già in versione 65nm), come singoli chip, è quasi ovvio (quasi perchè la scalabilità non è una "scienza esatta" :D ) che la dual basata su gt200 sarebbe andata meglio della dual basata su rv770...:boh:

RICKYL74
09-01-2009, 16:29
In realtà ci sono monitor LCD, anche 22" o 24", che offrono un refreshrate di 120Hz su tutte le risoluzioni supportate.

E' vero..

come il ViewSonic da 120Hz per esempio :D
anche se non capisco a cosa serva questa rincorsa agli Hz sui monitor LCD :confused: potevo capire sui CRT e c'èra anche un perchè! ma su gli LCD dov'è poi tutto sto beneficio? e come per il rapporto di contrasto dichiarato dal produttore dove ci sono monitor con contrasti da paura tipo 50000:1 - 500000:1, l'ultima che ho letto adesso non ricordo il modello, leggevo di un contrasto di 2000000:1 su di un 46" 100hz, mah..
Oh intendiamoci, se poi la qualità si vede e c'è ben venga tutto ciò.

Stefem
09-01-2009, 16:33
quali sono potresti linkarmi???? penso costino un botto però.......

Intorno a 350 $, ora ti cerco i link...

brandondarkness
09-01-2009, 16:36
c'è un piccolo errore alla pagina "uno sguardo più da vicino"
precisamente verso la fine recita:

L'alimentazione rimane identica, sono infatti necessari due connettori, uno a sei e uno a poli per consentire il corretto funzionamento della scheda.

quanti poli il secondo connettore?

Stefem
09-01-2009, 16:39
E' vero..

come il ViewSonic da 120Hz per esempio :D
anche se non capisco a cosa serva questa rincorsa agli Hz sui monitor LCD :confused: potevo capire sui CRT e c'èra anche un perchè! ma su gli LCD dov'è poi tutto sto beneficio? e come per il rapporto di contrasto dichiarato dal produttore dove ci sono monitor con contrasti da paura tipo 50000:1 - 500000:1, l'ultima che ho letto adesso non ricordo il modello, leggevo di un contrasto di 2000000:1 su di un 46" 100hz, mah..
Oh intendiamoci, se poi la qualità si vede e c'è ben venga tutto ciò.

Un refresh più alto aiuta a ridurre l'effetto ghosting, e poi è fondamentale per usare il 3D Vision di NVIDIA.

Stefem
09-01-2009, 16:40
c'è un piccolo errore alla pagina "uno sguardo più da vicino"
precisamente verso la fine recita:

L'alimentazione rimane identica, sono infatti necessari due connettori, uno a sei e uno a poli per consentire il corretto funzionamento della scheda.

quanti poli il secondo connettore?

8

RICKYL74
09-01-2009, 17:13
Un refresh più alto aiuta a ridurre l'effetto ghosting, e poi è fondamentale per usare il 3D Vision di NVIDIA.


Sarà ma io di scie tipo effetto ghosting non ne vedo nel mio monitor e viaggio dai 60Hz ai 75Hz. le uniche scie fastidiose le ho viste giocando a PES ma per quello basta abilitare il v-sinc e tutto torna a posto. Per il discorso del 3d vision di nVidia penso che ti riferisci a quello di usare gli occhiali speciali e monitor da 120Hz ti di spiace se aggiungo che cazzata no eh! nVidia a certe cose non si arrende mai :D

Stefem
09-01-2009, 17:23
Sarà ma io di scie tipo effetto ghosting non ne vedo nel mio monitor e viaggio dai 60Hz ai 75Hz. le uniche scie fastidiose le ho viste giocando a PES ma per quello basta abilitare il v-sinc e tutto torna a posto. Per il discorso del 3d vision di nVidia penso che ti riferisci a quello di usare gli occhiali speciali e monitor da 120Hz ti di spiace se aggiungo che cazzata no eh! nVidia a certe cose non si arrende mai :D

AMD la segue ha ruota, sembra sia in cantiere una soluzione stereoscopica anche da parte sua...
NVIDIA offre driver stereoscopici fin dalle TNT 2, le novità stanno nel nuovi driver e negli schermi LCD a 120Hz.

A suo tempo, dove funzionava a dovere, era veramente spettacolare, e dalle recensioni approfondite che ho letto i nuovi driver stereo e i pannelli a 120Hz sembrano fare miracoli...

Per ora ci sono questi:
Samsung SyncMaster 2233RZ 120 Hz LCD display
ViewSonic FuHzion VX2265wm 120 Hz LCD display

Free Gordon
09-01-2009, 17:35
Il problema non è nei "beta" ma nella configurazione di test: gli i7 lavorano con il chipset X58 che ha notori problemi con le schede ATI. Ed in particolare con il multi GPU.

Azz.. mi sa che molte rece saranno da rifare allora. :D

))Lexandrus((
09-01-2009, 17:58
Non ci credo neanche se lo vedo coi miei occhi che la GTX295 consuma meno della GTX280...

Anche se realizzata con un processo produttivo a 55nm, si tratta sempre di due core dello stesso tipo, contro uno.
Le cose sono 2:
Il GT200 è stato fatto con le chiappe.
La GTX295 per qualche motivo non è stata portata al suo consumo massimo.
I rilevamenti sono sbagliati.

Realisticamente, è come se paragonassimo una 7900GTX con una 7950GX2, e la GX2 (che aveva chip e memorie decisamente downclockati e downvoltati) consumasse meno... non ha senso

RICKYL74
09-01-2009, 18:02
AMD la segue ha ruota, sembra sia in cantiere una soluzione stereoscopica anche da parte sua...
NVIDIA offre driver stereoscopici fin dalle TNT 2, le novità stanno nel nuovi driver e negli schermi LCD a 120Hz.

A suo tempo, dove funzionava a dovere, era veramente spettacolare, e dalle recensioni approfondite che ho letto i nuovi driver stereo e i pannelli a 120Hz sembrano fare miracoli...


a suo tempo non ebbe molto successo, ti riferisci a quando trovavi nella confezione gli occhialini quelli con lente blu e rossa, mamma mia.. ma scusa non sarebbe meglio un casco tipo integrale con monitor interno e casse stereo 3d altezza orecchie e via di giochi virtuali magari con tanto di guanti e cavigliere usb, sarebbe un idea :p

scherzi a parte, è una tecnologia che a me personalmente non piace intendo quella degli occhiali.

Voglio cambiare il mio monitor Asus VW222S ma non opterò certo per questi 120Hz, mi piacciono il modello Eizo SX2461W il LaCie 324 e in particolare l'Iiyama ProLite B2403WS-1 credo proprio che opterò per quest'ultimo. ;)

Free Gordon
09-01-2009, 18:07
anche i driver Nvidia possono migliorare le prestazioni della gtx295, e siamo punto e capo
....ma poi cosa vi aspettavate? rv770 è mediamente sotto a gt200 (già in versione 65nm), come singoli chip, è quasi ovvio (quasi perchè la scalabilità non è una "scienza esatta" :D ) che la dual basata su gt200 sarebbe andata meglio della dual basata su rv770...:boh:


GTX260+ e 4870 1GB sono sullo stesso livello.

La 295 è un 10% più veloce della 4870X2, con prezzi allineati alle prestazioni avranno tutte e due il loro mercato..