PDA

View Full Version : GeForce 8800 GTX e GTS: la proposta Asus


Redazione di Hardware Upg
27-11-2006, 09:00
Link all'Articolo: http://www.hwupgrade.it/articoli/skvideo/1608/index.html

Il principale tra i produttori di schede madri e schede video taiwanesi è tra i primi partner a proporre schede video GeForce 8800, GTX e GTS, sul mercato. Non solo: è a questa azienda che si deve la costruzione di tutte le schede G80 attualmente in commercio, motivo che spiega la sostanziale uguaglianza tra le GeForce 8800 acquistabili al momento

Click sul link per visualizzare l'articolo.

dsajbASSAEdsjfnsdlffd
27-11-2006, 09:17
Per la scheda GeForce 8800 GTS il quantitativo scende a 640 Gbytes

impressionanti questi numeri ;)

no cmq errori e refusi a parte, sono schede impressionanti per davvero!

CicCiuZzO.o
27-11-2006, 09:23
non avrei immaginato che sarebbe finita prima come rapporto prezzo/prestazioni...
ben fatto a nVidia (anche se per queste schede io aspetto almeno aprile :D )

legno
27-11-2006, 09:27
Le G80 sembrano essere molto veloci, sono impaziente di vederle all'opera con le DX10 pero' ! Adesso queste prove per quanto ben fatte ( complimenti alla redazione :) ) non riescono IMHO a dare l'idea di quelle che saranno le prestazioni con sw e giochi DX10. Anche perche' il discorso DX10 sta diventando sempre + dispendioso!!! ci vorra' in sequenza: Vista :eek: , scheda DX10, HW che la supporta al meglio :cry: , e con tutta sta potenza un bel monitor 24" no ? :eek: :eek: :eek: . . .vabbe' vedremo. . . . . .ciao :)

Tidus.hw
27-11-2006, 09:30
sarebbe stato interessante vedere che punteggio avrebbe preso una x1900xt 256mb nel moneybench :)

cagnaluia
27-11-2006, 09:32
sono indubbiamente delle VGA molto potenti. Ma mi aspettavo anche molto di piu.

Forse bisogna aspettare nuovi titoli con pieno supporto DX10 per apprezzarne appieno le vere doti.

Poi su tutti i benchmark non sono mai prime, invece tra i giochi anche si... è ora di aggiornare i bench?

erupter
27-11-2006, 09:54
A titolo di paragone la scheda Radeon X1950XTX di ATI, la soluzione a singola GPU con le più veloci memorie video attualmente a disposizione, raggiunge una bandwidth di 64 Gbytes al secondo utilizzando moduli GDDR4 da 2 Gbytes di frequenza di clock, abbinate a un bus da 256bit di ampiezza.

Se non erro era lo stesso errore presente nell'anteprima della 8800?
Ecco cosa succede a non correggere e fare copia incolla :p

EskevarMkDrake
27-11-2006, 10:13
Il consumo si misura con tutto collegato (pc + sk. video).

Si potrebbe misurare il consumo di queste schede video recensite, collegando una vecchia S3Trio pci (o similare) e andando per differenza di consumi misurati?

La S3 la metto io... ;)

Redvex
27-11-2006, 10:23
Una domanda OT: Le prossime schede dx10 di ati usciranno marchiate Amd?
Magari l'utonto non vedendo più ati non le comprerà.
Come al solito però aspetto le 8600gt o una nuova scheda che si aggiri suelle 200-250 euro

LUCH81
27-11-2006, 10:25
Io so di cosa è capace questo mostro :D
Cmq il bundle della asus secondo me è il migliore peccato che poi abbia preso una xfx :cry:

LZar
27-11-2006, 10:29
Non pensavo che la differenza di prestazioni tra la 8800 GTS e la 8800 GTX fosse così alta. Considerata la differenza di prezzo tra le due versioni, se non si bada troppo ai consumi molto meglio fare uno sforzo in più e prendere la GTX.

Due domande sui test:

1) Come mai il test sulla rumorisità non è stato fatto?
2) Cosa diavolo si intende per " livello 8 " nel test di Oblivion? Immagino non si riferisca al livello del personaggio che è totalmente ininfluente nei confronti delle performance video.

Per il resto, lodi alla (solita) ottima serie di test ed interessantissimo il moneybench.

bjt2
27-11-2006, 10:31
Bene. Interessante il moneyBench... ;) Le prove SLI al prossimo articolo, ma mi chiedo... Avete fatto una mole immensa di prove! :eek: Una curiosità... Le schede dell'anteprima erano fornite da ASUS, mi pare di aver capito... Avete riscontrato differenze di prestazioni? E' vero che ora avete usato anche risoluzioni 2560x1600, ma ho visto che alcuni giochi (per limiti dei giochi credo) li avete impostati a 2048x1536... Mi pare la stessa risoluzione dell'anteprima...

eta_beta
27-11-2006, 10:36
qualcuno sa qualcosa su encodeder decoder di filmati in H264 X queste schede?

phil anselmo
27-11-2006, 10:49
sarebbe stato interessante vedere che punteggio avrebbe preso una x1900xt 256mb nel moneybench :)
quoto :)

capitan_crasy
27-11-2006, 10:54
Caro Corsini:
Non capisco perchè non ci sia più la risoluzione 1280x1024! :cry:
Ti prego ripensaci... ;)

Pistolpete
27-11-2006, 11:16
Che senso ha utilizzare ancora oggi l'antialiasing a risoluzioni così elevate? Non credo che a 2500*1600 si veda ancora qualche scalettatura nell'immagine..... disabilitando quel filtro, secondo me non fondamentale nella resa dell'immagine, le prestazioni crescerebbero ancora e lo farebbero in percentuali interessanti.
Complimenti per la recensione.

giovonni
27-11-2006, 11:18
Ciao, volevo chiedere una cosa: non sarebbe meglio dire rapporto prestazioni/prezzo, per come è in tabella?

Firestormgdi
27-11-2006, 11:21
A me onestamente questa skeda nn mi ha impressionato quasi per niente...anzi mi ha impressionato di + il nuovo LCD della Dell :D

Wonder
27-11-2006, 11:23
Va bene fare i test a risoluzioni alte perchè la scheda è un mostro...ma non rispecchiano minimamente neanche una delle configurazioni più diffuse.

Fate i test in 1280*1024, 1024*768, 1600*1200 e siete sicuri di coprire il 90% dell'interesse e delle configurazioni.

Qui le Ferrari le provano su strada, perchè il 90% della gente ci gira su strada, e NON in pista!

Kralizek
27-11-2006, 11:26
credo che a quelle risoluzioni non ci sia alcuna differenza tra le varie schede.

bart noel
27-11-2006, 11:31
Beh la Gts è appetibile per coloro che non possiedo una VGA di fascia alta o medio-alta,per chi non ha problemi di budget meglio puntare sulla GTX piuttosto che crossfire o Sli di DX9..
Interessante notare come con i driver maturi l'R580 stacchi in maniera + marcata il G71, pure in applicazioni opengl come Prey, perde solo il confronto con Q4...

Io cmq consiglierei di fare qualche sorpresina ad Ati e nVidia, magari variando i benchmarck.. dato che utilizzando i soliti giochi i driver vengono ottimizzati come per il 3D Mark...
Alcuni titoli potrebbero essere Call of Juarez per l'uso dei SM3.0 e poi Need for Speed Carbon e Company of Heroes, quest'ultimo ha già un bench integrato...

cagnaluia
27-11-2006, 11:39
quoto :)


non serve, lo sappiamo tutti che è la migliore

VitOne
27-11-2006, 12:12
Che senso ha utilizzare ancora oggi l'antialiasing a risoluzioni così elevate? Non credo che a 2500*1600 si veda ancora qualche scalettatura nell'immagine..... disabilitando quel filtro, secondo me non fondamentale nella resa dell'immagine, le prestazioni crescerebbero ancora e lo farebbero in percentuali interessanti.
Complimenti per la recensione.

Ciao, secondo me c'è da considerare che il monitor è da 30"; quindi le "scalettature" sono evidenti anche a quella risoluzione. Per esempio sul mio 24" l'aliasing è visibile, e la differenza tra averlo abilitato o meno è abbastanza palese.

Complimenti per la rece sempre puntuale, sarebbe interessante per chi deve acquistare un "money bench" comparativo tra le varie versioni della 8800 in rapporto al bundle. Cmq mi chiedo come mai il prezzo delle 7950Gx2 sia tanto alto, dato che in alcuni negozi a Roma (che hanno anche la 8800GTX) si trova a 490+IVA contro i 590+IVA della 8800GTX ;).

Cloud76
27-11-2006, 12:12
Ma come si pratica l'overclock di queste schede?
Oltre al core e la memoria si può intervenire anche aumentando la frequenza degli Stream Processors?
Grazie.

letsmakealist
27-11-2006, 12:17
Caro Corsini:
Non capisco perchè non ci sia più la risoluzione 1280x1024! :cry:
Ti prego ripensaci... ;)

beh, è la risoluzione che uso io sul mio monitor, però capisco i perchè della scelta.

perchè non ha senso in questa fascia di schede.
perchè chi spende 600€ di scheda video, non gioca a quella risoluzione.
perchè vedere dei grafici appiattiti dove tutte le schede più o meno si equivalgono, non dice nulla riguardo al confronto e alle differenze in questo tipo di schede.

alla prossima recensione/confronto tra schede di fascia media sono convinto che ritornerà la nostra cara 1280x1024.

Paolo Corsini
27-11-2006, 12:38
Che senso ha utilizzare ancora oggi l'antialiasing a risoluzioni così elevate? Non credo che a 2500*1600 si veda ancora qualche scalettatura nell'immagine..... disabilitando quel filtro, secondo me non fondamentale nella resa dell'immagine, le prestazioni crescerebbero ancora e lo farebbero in percentuali interessanti.
Complimenti per la recensione.
Dipende dal tipo di scena, ma l'aliasing si nota parecchio anche a quella risoluzione così elevata in alcuni contesti.
Con potenze di elaborazione così elevate come quelle di queste schede video ha perfettamente senso abilitrae l'anti aliasing a queste risoluzioni.

Ciao, volevo chiedere una cosa: non sarebbe meglio dire rapporto prestazioni/prezzo, per come è in tabella?
Vero, ma come "modo di dire" il prezzo-prestazioni è più intuitivo da cogliere, e largamente utilizzato; ecco il perché di questa scelta.

Caro Corsini:
Non capisco perchè non ci sia più la risoluzione 1280x1024! :cry:
Ti prego ripensaci... ;)
Nella peggiore delle ipotesi otterresti gli stessi frames che sono indicati alla risoluzione immediatamente superiore.
Ergo, capiresti poco dell'effettiva potenzialità di architetture così potenti come G80 o un sistema SLI o Crossfire.
Dal punto di vista dell'analisi non si aggiungerebbe nulla: se usi questa risoluzione queste schede sono sovradimensionate, quindi non sarebbe un acquisto adatto.
Inoltre spendere 650€ per una scheda video top di gamma e non adeguare il proprio monitor ad una risoluzione adatta, considerando che questo viene comunque utilizzato sempre anche in 2D con applicazioni che non siano i giochi, mi pare poco sensato.

Per chi fa l'esempio della "Ferrari": sono pochi i possessori di queste automobili, e un loro acquirente starebbe a lesinare sulle gomme? Spero di aver reso l'idea con questo semplice esempio.

Wonder
27-11-2006, 12:43
Capisco che a risoluzioni più basse tutte si equivalgano...e allora visto che il 90% di noi gioca a tali risoluzioni, il 90% di noi comprerà la più economica fra le scelte equivalenti. Non vedo perchè uno dovrebbe comperare una scheda che mostra la sua differenza solo in risoluzioni non utilizzate e magari neanche raggiungibili visto che ora che quasi tutti hanno un LCD dove la risoluzione utilizzata è anche la risoluzione massima, e che per molti si ferma a 1280*1024.

prova
27-11-2006, 13:20
Ciao, volevo chiedere una cosa: non sarebbe meglio dire rapporto prestazioni/prezzo, per come è in tabella?

In effetti è fuorviante: con la scritta prezzo/prestazioni io cercavo il risultato MINORE come più appetibile, mentre in questo grafico è quello maggiore ad essere sottolineato. Quindi anche io credo che il nome dovrebbe essere prestazioni/prezzo: ad un aumento dell'indice si ha un miglior rapporto delle prestazioni rispetto al prezzo.
Insomma, il nome del grafico per come è nell'articolo è sbagliato :D

[meno male che qualcuno lo ha notato: temevo di non sapere più interpretare un grafico :asd: ]

VitOne
27-11-2006, 13:29
Capisco che a risoluzioni più basse tutte si equivalgano...e allora visto che il 90% di noi gioca a tali risoluzioni, il 90% di noi comprerà la più economica fra le scelte equivalenti. Non vedo perchè uno dovrebbe comperare una scheda che mostra la sua differenza solo in risoluzioni non utilizzate e magari neanche raggiungibili visto che ora che quasi tutti hanno un LCD dove la risoluzione utilizzata è anche la risoluzione massima, e che per molti si ferma a 1280*1024.

Le schede TOP di gamma sono da sempre indice della direzione verso la quale il mercato si sta muovendo. I primi monitor avevano risoluzioni e diagonali bassissime, oggi il mercato si sta evolvendo verso monitor sempre più grandi, quindi credo che sia giusto testare questi prodotti e testarli con configurazioni al passo con i tempi, rappresentative di quello che sarà lo standard domani ;).

Tetsujin
27-11-2006, 13:30
Una domanda all'autore dell'articolo: me il grafico di Splinter Cell Chaos Theory è corretto?

http://www.hwupgrade.it/articoli/skvideo/1608/sc_hdr.png

Da quel che si sa, non è possibile in questo gioco attivare HDR+AA sulle schede X1900, eppure già nella recensione della 8800GTX compare la X1950XTX. La redazione è per caso in possesso di una patch particolare?

OverClocK79®
27-11-2006, 13:32
Per chi fa l'esempio della "Ferrari": sono pochi i possessori di queste automobili, e un loro acquirente starebbe a lesinare sulle gomme? Spero di aver reso l'idea con questo semplice esempio.

concordo in pieno con il tuo ragionamento
peccato che le "gomme" per le nostre "Ferrari" costino COME se non DI PIU della macchina stessa
un 24" 16:9 in grado di raggiugnere 1900x1200
mi è costato 800€ di piu della "Ferrari" :p

BYEZZZZZZZZZZZZZ

nudo_conlemani_inTasca
27-11-2006, 14:04
Ma come mai BFG (a differenza di tutti gli altri partner nVidia AIB), fornisce garanzia @ vita sui propri prodotti GF8800xxx Series,
lo fa solo lei! :eek:

Io sinceramente non saprei se fidarmi di questo marchio o puntare su i nomi più
noti (vedi Asus, XFX o Galaxy ecc.) proprio per 1 discorso di garanzie, essendo questi dei prodotti "molto spinti" in prestazioni e più soggette a rischi di malfunzionamenti quindi..

mah.. :uh:

Wonder
27-11-2006, 14:07
Per chi fa l'esempio della "Ferrari": sono pochi i possessori di queste automobili, e un loro acquirente starebbe a lesinare sulle gomme? Spero di aver reso l'idea con questo semplice esempio.
Cosa centrano le gomme? Qui si sta parlando se utilizzare la Ferrari su strada (90% delle volte) o su pista. E' chiaro che su strada non si fanno i 300 come sulla pista, anzi probabilmente si faranno i 50. Inoltre lo sai pure tu che se sono pochi i possessori di Ferrari, sono pochi anche i possessori della top di gamma. Da sempre è la fascia medio-alta quella che si vende di più...e quella fa i 50 come la Ferrari, su strada.

OverClocK79®
27-11-2006, 14:21
il paragone con le auto ha varie interpretazioni e varie letture
quello che si sta dicendo
è che prendersi una 8800GTX ora e farla andare a 1280x1024
non ha molto senso
(sebbene la stragrande maggioranza dei monitor LCD in commercio supporti tale ris)
anche se attivi TUTTO da AA a AF
avrai talmente tanti FPS che la differenza da una 1950 o altro non si vedrà
in quanto anche schede piu "lente" riusciranno a mantenere un livello di FPS tale da garantire la piena soglia della fluidità
non ho fatto i test......ma se una scheda fa 250fps e l'altra 200
poco serve
siamo BEN al di sopra della soglia della fluidità

inoltre sono sicuro che ne uscirebbe una visione distorta in quanto potrebbe dipende dal tipo di architettura della GPU
magari con minore efficienza a carico ridotto e maggiore a pieno carico
o dal resto del PC
con situazioni cpu limited......

che poi alla fine sono falsi problemi in quanto
come gia accennato precedentemente ben al di sopra della soglia della fluidità

visto che per vedere il vero potenziale di queste schede serve una risoluzione ELEVATA
di conseguenza serve anche un monitor adatto.....

risoluzioni come 1600x1200 erano IMPENSABILI da utilizzare qualche anno fa.....
ora sembra essere IL MINIMO per poter vedere un po di differenza tra le TOP di GAMMA.....
ecco il discorso delle "gomme".....
e del Monitor

BYEZZZZZZZZZZZZZ

firmus
27-11-2006, 14:32
Condivido pienamente ciò che dice OverClocK79 ed anche il buon Corsini. Dopo l'acquisto della GTS ho visto che in effetti era sprecata per i 1280x1024 del mio 17" casalingo. Così la settimana scorsa ho montato un 24" full hd (1920x1200) che da solo viene quasi quanto (per me) 1 GTX e mezza.
Però con questa risoluzione si vede veramente G80 tirare fuori i denti ;)
Questa primavera vedrò l'evoluzione di r600, e vedrò se affiancare un'altra GTS alla mia per i titoli directx10, o cambiare architettura.
Per adesso, a 1920x1200, in dx9 G80 va che è una meraviglia.
Al di sotto di 1600x1200 ritengo più conveniente rimanere su schede dx9 già affermate, tipo x1950 et similia ;)
Ciauz

Kharonte85
27-11-2006, 15:33
Bella rece (e finalmente con la 7950gx2 "normale" Vs 8800gts :D )... :)

bonzuccio
27-11-2006, 16:05
Quando si diceva che 2 1950 in cf scalavano da pajura alle alte risoluzioni e non c'era GX2 che tenesse testa.. bonzuccio non dimentica, davvero bestiali anche se consumano un fottio di watt e hanno rapporto prezzo prestazioni alto (a queste risoluzioni)

la gx2 torna al suo giusto ambito grazie al nuovo dellone che ha fatto giustizia (parziale visto che non voglio pensare cosa succede a risoliuzioni ancora + spinte)

seconda cosa che emerge è che la gts non è una scheda cosi appetibile come si presumeva:
o si fa uno sforzo per la gtx per avere il meglio del meglio a tutti i costi o si aspetta tranquillamente che i prezzi calino con l'arrivo di vista o R600 e le dx10, ambito in cui mostrerà la sua validità ma a quel punto paragonabile con qualcos'altro..
infine un grosso grazie a chi ci regala queste pagine :p

qasert
27-11-2006, 16:11
ci sarà una gpu dx10 agp?????1 fra ati e nvidia penso la farà altrimenti penso che x il momento sia + conveniente andare su una x360 piuttosto che cambiare tutto

qasert
27-11-2006, 16:14
agp?

Nos89
27-11-2006, 16:15
agp?
l'Agp te lo puoi pure dimenticare su queste schede video

qasert
27-11-2006, 16:18
anche x la 7 nvidia diceva no agp poi....

Dj Antonino
27-11-2006, 16:23
se mai uscirà una dx10 in agp di certo non sarà una top di gamma.. magari una di fascia media ad un prezzo + alto del normale.. ma secondo me non uscirà nulla per agp di decente..

Dj Antonino
27-11-2006, 16:29
secondo me invece i test a 1280 sarebbero da fare.. cioè anche a questa risoluzione la differenza c'è tra le varie schede (chiaramente con i filtri attivati..)
http://www.firingsquad.com/hardware/geforce_8800_gtx_gts_amd_cpu_scaling/images/aafol1280.gif

imayoda
27-11-2006, 16:43
perchè il mio post è stato cancellato? :mbe:

nudo_conlemani_inTasca
27-11-2006, 16:47
anche x la 7 nvidia diceva no agp poi....

Mi risulterebbe anomalo che delle SVGA di questa fascia (e con questi assorbimenti energetici -> Watt) possano essere realizzate in AGP!

Devi dargli ancora 200Watt.. a pieno carico 100% e dove li vai a prendere?
AGP ha proprio delle limitazioni tecnico/elettriche, o almenocchè non ci
connettano 4 x alim. aggiuntiva (6poli) tipica del PCI-E v1.0! :asd:

Ecco perchè sta venendo in aiuto lo standard PCI-E v2.0,
a mio modo di vedere.. utile solo per il marketing!
(pensassero ad ottimizzare le GPU, come AMD & Intel fanno da 1 vita sulle CPU)

I VG che sfruttano decentemente queste svga si e no saranno 4-5,
mal ottimizzati.
A me Oblivion come genere non mi dice nulla.. però noto come anche su i MOSTRI come 8800GTS-X non riesca a raggiungere frame-rate ragguardevoli..
è questo è tutto dire!

che tristezza.. :mc:

ciao. :rolleyes:

nudo_conlemani_inTasca
27-11-2006, 16:50
perchè il mio post è stato cancellato? :mbe:

Probabilm. stai sul cazz.... :asd: ai Mod..
No dai scherzavo, magari hai fatto solo Anteprima e non conferma.. :uh:

imayoda
27-11-2006, 17:43
Probabilm. stai sul cazz.... :asd: ai Mod..
No dai scherzavo, magari hai fatto solo Anteprima e non conferma.. :uh:
No.. avevo pure letto il mio post e aspettavo risposte..bah :mc:

bollicina31
27-11-2006, 19:19
onestamente pure io speravo che questa scheda offrisse maggiori prestazioni, pensavo gia a come trovare il modo di rivendere le mie 7900gtx ma misa tanto che le terro' ancora al ungo

bonzuccio
27-11-2006, 19:50
No.. avevo pure letto il mio post e aspettavo risposte..bah :mc:


tutto questo è gravissimo.. c'è un super user tra noi :mbe:
prova a ripostare e vediamo che succede

Spider-Mans
27-11-2006, 20:08
bell articolo
io sono un neo felice possessore di una stupenda 8800 GTS :sbav: :sbav: :sbav:

kenjcj2000
27-11-2006, 20:13
onestamente pure io speravo che questa scheda offrisse maggiori prestazioni, pensavo gia a come trovare il modo di rivendere le mie 7900gtx ma misa tanto che le terro' ancora al ungo

di più? caffe e cappuccino :confused:

dragonheart81
27-11-2006, 20:22
Prestazioni allineate con le altre 8800 del resto sono "identiche"...

capitan_crasy
27-11-2006, 20:59
Dipende dal tipo di scena, ma l'aliasing si nota parecchio anche a quella risoluzione così elevata in alcuni contesti.
Con potenze di elaborazione così elevate come quelle di queste schede video ha perfettamente senso abilitrae l'anti aliasing a queste risoluzioni.


Vero, ma come "modo di dire" il prezzo-prestazioni è più intuitivo da cogliere, e largamente utilizzato; ecco il perché di questa scelta.


Nella peggiore delle ipotesi otterresti gli stessi frames che sono indicati alla risoluzione immediatamente superiore.
Ergo, capiresti poco dell'effettiva potenzialità di architetture così potenti come G80 o un sistema SLI o Crossfire.
Dal punto di vista dell'analisi non si aggiungerebbe nulla: se usi questa risoluzione queste schede sono sovradimensionate, quindi non sarebbe un acquisto adatto.
Inoltre spendere 650€ per una scheda video top di gamma e non adeguare il proprio monitor ad una risoluzione adatta, considerando che questo viene comunque utilizzato sempre anche in 2D con applicazioni che non siano i giochi, mi pare poco sensato.

Per chi fa l'esempio della "Ferrari": sono pochi i possessori di queste automobili, e un loro acquirente starebbe a lesinare sulle gomme? Spero di aver reso l'idea con questo semplice esempio.
concordo in pieno con il tuo ragionamento
peccato che le "gomme" per le nostre "Ferrari" costino COME se non DI PIU della macchina stessa
un 24" 16:9 in grado di raggiugnere 1900x1200
mi è costato 800€ di piu della "Ferrari" :p

BYEZZZZZZZZZZZZZ

Io capisco che una 8800GTX/8800GTS non viene sfruttata al massimo con risoluzioni a 1280X1024, ma il paragone con questa risoluzione può portare ad una analisi più dettagliata soprattutto con schede di generazione precedente.
Un una nota rivista d'informatica uscita questo mese la prova del G80 alla risoluzione a 1280X1024 c'era è il guadagno di frame paragonata alla risoluzione 1600X1200 era della media di 20frame!
Inoltre vi invito a guardare la recensione di FiringSquad sulla 8800GTX/8800GTS su piattaforme AMD ( 3800+,4200+,4600+,5000+,FX-62 ).
http://www.firingsquad.com/hardware/geforce_8800_gtx_gts_amd_cpu_scaling/images/dm1280.gif
In alcuni casi la 8800 distrugge anzi "DEVASTA" la concorrenza alla risoluzione 1280x1024! :eek: :eek:
http://www.firingsquad.com/hardware/geforce_8800_gtx_gts_amd_cpu_scaling/images/bf21280.gif
http://www.firingsquad.com/hardware/geforce_8800_gtx_gts_amd_cpu_scaling/images/aamts1280.gif
In Oblivion HDR+AA il vantaggio del G80 arriva a 61.3 frame!!!
La recensione completa è disponibile a questo indirizzo! (http://www.firingsquad.com/hardware/geforce_8800_gtx_gts_amd_cpu_scaling/default.asp)
Grazie per l'attenzione... ;)

JohnPetrucci
27-11-2006, 21:57
Va bene fare i test a risoluzioni alte perchè la scheda è un mostro...ma non rispecchiano minimamente neanche una delle configurazioni più diffuse.

Fate i test in 1280*1024, 1024*768, 1600*1200 e siete sicuri di coprire il 90% dell'interesse e delle configurazioni.

Qui le Ferrari le provano su strada, perchè il 90% della gente ci gira su strada, e NON in pista!
Anch'io vorrei che almeno la risoluzione a 1280 venisse inclusa.....
Anche se devo ammettere che queste schede sono sprecate a 1280x1024.

JohnPetrucci
27-11-2006, 21:59
Io capisco che una 8800GTX/8800GTS non viene sfruttata al massimo con risoluzioni a 1280X1024, ma il paragone con questa risoluzione può portare ad una analisi più dettagliata soprattutto con schede di generazione precedente.
Un una nota rivista d'informatica uscita questo mese la prova del G80 alla risoluzione a 1280X1024 c'era è il guadagno di frame paragonata alla risoluzione 1600X1200 era della media di 20frame!
Inoltre vi invito a guardare la recensione di FiringSquad sulla 8800GTX/8800GTS su piattaforme AMD ( 3800+,4200+,4600+,5000+,FX-62 ).
http://www.firingsquad.com/hardware/geforce_8800_gtx_gts_amd_cpu_scaling/images/dm1280.gif
In alcuni casi la 8800 distrugge anzi "DEVASTA" la concorrenza alla risoluzione 1280x1024! :eek: :eek:
http://www.firingsquad.com/hardware/geforce_8800_gtx_gts_amd_cpu_scaling/images/bf21280.gif
http://www.firingsquad.com/hardware/geforce_8800_gtx_gts_amd_cpu_scaling/images/aamts1280.gif
In Oblivion HDR+AA il vantaggio del G80 arriva a 61.3 frame!!!
La recensione completa è disponibile a questo indirizzo! (http://www.firingsquad.com/hardware/geforce_8800_gtx_gts_amd_cpu_scaling/default.asp)
Grazie per l'attenzione... ;)
GRANDIOSO!!!! :eek:

CicCiuZzO.o
27-11-2006, 22:15
per questo erano inutili i test a 1280x1024... una scheda del genere non può che andare lissia come l'olio con tutto attivo a quella risoluzione :stordita:

capitan_crasy
27-11-2006, 23:37
per questo erano inutili i test a 1280x1024... una scheda del genere non può che andare lissia come l'olio con tutto attivo a quella risoluzione :stordita:
d'accordo, ma con la risoluzione 1280X1024 si ha un riferimento in percentuale di quando il G80 va in più rispetto alla concorrenza...
Quando uscirà R600 la risoluzione 1600x1200 sarà la regola, ma OGGI con X1950 la risoluzione 1280X1024 resta la più usata... :)

imayoda
27-11-2006, 23:43
tutto questo è gravissimo.. c'è un super user tra noi :mbe:
prova a ripostare e vediamo che succede
Questa è quella che si definisce violenza inutile... abbi più rispetto per gli anziani. :ciapet:

VEKTOR
28-11-2006, 09:33
Ok, ragazzi completamente d'accordo con i vostri post, ma diamine: il consumo è un botto... Con tutti questi casini energetici, con quel simpaticone russo che fa lo sborone con l'energia (poco importa l'accordo di ENI) questi si mettono a produrre le schede video super performanti senza pensare ai consumi?
Si d'accordo, uscirà la versione a 0,8 micron (ehm coi numeri non ci so fare molto), ma quanto ai prodotti attuali i consumi sono veramente inaccessibili. A pieno carico (e non credo sia difficilissimo arrivarci) si tratta quasi di 300 W... è tanto!
Non lo so, lo vedo ancora come risultato della mania di grandezza degli americani; vi ricordate qualche anno fa (forse neanche) quando non c'era questa iperproduzione di sk video sempre più performanti e sempre più gasate? Ad un certo punto Nvidia ha dato il primo colpo ed Ati inevitabilmente è dovuta stare indietro, producendo modelli continuamente, facendo una concorrenza a mio parere sfrenata e non poi così utile a noi utenti: nel cambio di generazione sk video, i prodotti non hanno subito riduzioni di prezzi così consistenti, perché le aziende hanno preferito eliminare dal mercato quel prodotto oppure offrirlo certamente ad un prezzo basso, ma con dei videogiochi che necessitano di una potenza di elaborazione tale da rendere l'acquisto di una sk video della generazione precedente inutile. Non parlo del caso delle Geforce 7, ma si pensi ad una GF 6 (che possiedo) che sta diventando sempre più inutile nei giochi, a meno che non si pensi che giocare a 1280x1024 liscio o a 1024x768 con qualcosina attivato sia giocare... Ogni opinione è legittima :)
Voglio comprare una GF 7800 GTX, direi di una generazione e mezzo indietro? 450 euro, nella migliore delle ipotesi... con consumi esagerati... dov'è la concorrenza che ci giova? Ehi ragazzi è quasi un milione, per avere un pezzo già obsoleto...

Insomma, IMHO the question is:
Consumi
Concorrenza falsata nei prodotti il cui prezzo resta alto.

Scusate per il post di una riga e mezzo ;)

AndreaG.
28-11-2006, 10:06
scusate l'ot... si sa niente ancora delle specifiche delle future 8600gt?

Cloud76
28-11-2006, 11:18
I test a 1280x1024 sono ancora indispensabili.
A parte il fatto, come è stato detto, che pochi possono permettersi monitor enormi in grado di arrivare a 2560x1600... ma nemmeno a 1920x1200...
E poi non ha assolutamente senso dire che per un G80 sono NECESSARI monitor con tali caratteristiche di risoluzione o che siano enormi; guardate bene i test e vedrete che GIA' ORA in alcuni giochi come FEAR a 1600x1200 con aa4/anis16 la GTX fa 41 fps, la GTS ne fa 29; in CoD2 a 1920x1200 la GTS fa appena 30 fps e la GTX 43!!!
Insistere sul fatto di abbinare un monitor molto grande e con alta risoluzione implica il fatto di utilizzare ovviamente queste risoluzioni con la conseguenza di trovarsi già ora in alcune situazioni limite dove la scheda comincia "ad arrancare" usando aa4+anis16, se poi vogliamo metterci dentro anche HDR o soft shadows ecco che ci ritroviamo con un bel monitor enorme e il gioco che scatta.
Inoltre voglio vedere tra 6 mesi se col G80 si riuscirà a far girare ancora a queste altissime risoluzioni e con i filtri i giochi appena usciti mantenendo frames sopra i 60 visto che già al momento in alcuni casi non ce la fa... quindi visto che uno ha già speso una fortuna per il monitor dovrà spendere ancora per cambiare scheda video per continuare a giocare con le stesse risoluzioni e qualità grafica.
La risoluzione un po' inferiore è importante perchè consente una longevità molto maggiore e con qualità grafica invariata, quindi un 17" o al limite un 19" vanno più che bene anche per queste VGA secondo me.
Non per ultimo è interessante vedere il comportamento della GPU a 1280x1024 poichè il comportamento è diverso alle varie risoluzioni e magari la GPU spinge e guadagna percentualmente di più ad una risoluzione piuttosto che ad un'altra.
Saluti!

psychok9
30-11-2006, 04:24
Questa corsa ai pollici mi sembra una presa per il :ciapet: :ciapet:.
Aumentando la dimensione del monitor aumenti le scalettature...
Andrebbe fatto un rapporto pollici/pixel... bella 2500x1xxx ma 30" sono tanti!!!

Quoto cloud76! 1280x1024 per la maggior parte dei monitor va benissimo!!!... e oltretutto è ovvio che son sprecate al momento... perché ancora non vi sono game dx10 di prossima generazione! Poi voglio vedere quanti fps faranno a 2500x1xxx.... :muro:

aaasssdddfffggg
30-11-2006, 13:44
Hai fatto bene Corsini a non inserire la 1280x1024 in questo test.Quando ci sono schede di questo livello da recensire è un insulto al Video3D mettere certe risoluzioni.Ben fatto.

phil anselmo
30-11-2006, 14:58
Va bene fare i test a risoluzioni alte perchè la scheda è un mostro...ma non rispecchiano minimamente neanche una delle configurazioni più diffuse.

Fate i test in 1280*1024, 1024*768, 1600*1200 e siete sicuri di coprire il 90% dell'interesse e delle configurazioni.

Qui le Ferrari le provano su strada, perchè il 90% della gente ci gira su strada, e NON in pista!
quoto ;)

Dj Antonino
30-11-2006, 15:49
Hai fatto bene Corsini a non inserire la 1280x1024 in questo test.Quando ci sono schede di questo livello da recensire è un insulto al Video3D mettere certe risoluzioni.Ben fatto.
ma anche no :D

capitan_crasy
30-11-2006, 16:14
Hai fatto bene Corsini a non inserire la 1280x1024 in questo test.Quando ci sono schede di questo livello da recensire è un insulto al Video3D mettere certe risoluzioni.Ben fatto.

ma che diavolo stai dicendo??? :muro:
Perchè non vai a vedere quando guadagna un G80 sulla concorrenza a 1280X1024!!! :doh:

firmus
30-11-2006, 16:40
Hai fatto bene Corsini a non inserire la 1280x1024 in questo test.Quando ci sono schede di questo livello da recensire è un insulto al Video3D mettere certe risoluzioni.Ben fatto.

Beh non è proprio così dai. Sebbene io stesso la usi a 1920x1200, ritenendo che rispetto a 1280x1024 ora il mio G80 mostri le sue vere potenzialità...penso che i risultati ottenuti sui 17/19" maggiormente diffusi siano comunque interessanti per capire le potenzialità di G80 sulle varie architetture.
Inoltre è vero che a 1920x1200 ed a 2560x1600 se abiliti filtri pesanti con titoli come ad esempio FEAR, le prestazioni crollano. Anche nel caso di SLI della GTX si è sui 40 fps a 2560x1600 con aa4x af 16x e le soft shadow NON abilitate.
Quindi direi che non è un insulto fare queste prove....G80 secondo me è un piccolo mostro si (difatti ne sono contento)...ma non è una scheda quantica che fa girare tutto a mille miliardi di pixel x mille miliardi di pixel :D Ci vuole relativamente poco x metterla in ginocchio sui 24 e 30" ;) (e con titoli DX9...con i titoli DX10 sarà dura :D )
Byez

psychok9
30-11-2006, 16:59
Hai fatto bene Corsini a non inserire la 1280x1024 in questo test.Quando ci sono schede di questo livello da recensire è un insulto al Video3D mettere certe risoluzioni.Ben fatto.

Perdonami ma non tutti i frequentatori di hwupgrade sono milionari... :mbe:
Quindi bene che si facciano test a quelle risoluzioni... ma male che si "facciano con le altre"... Quelle ris. riguardano in realtà solo una stretta nicchia di persone...
Agire a quelle risoluzioni serve soprattutto quando non vi sono game di ultimissima generazione in grado di mettere in difficoltà una scheda video molto potente e di ultimissima uscita...

psychok9
30-11-2006, 17:01
Beh non è proprio così dai. Sebbene io stesso la usi a 1920x1200, ritenendo che rispetto a 1280x1024 ora il mio G80 mostri le sue vere potenzialità...penso che i risultati ottenuti sui 17/19" maggiormente diffusi siano comunque interessanti per capire le potenzialità di G80 sulle varie architetture.
Inoltre è vero che a 1920x1200 ed a 2560x1600 se abiliti filtri pesanti con titoli come ad esempio FEAR, le prestazioni crollano. Anche nel caso di SLI della GTX si è sui 40 fps a 2560x1600 con aa4x af 16x e le soft shadow NON abilitate.
Quindi direi che non è un insulto fare queste prove....G80 secondo me è un piccolo mostro si (difatti ne sono contento)...ma non è una scheda quantica che fa girare tutto a mille miliardi di pixel x mille miliardi di pixel :D Ci vuole relativamente poco x metterla in ginocchio sui 24 e 30" ;) (e con titoli DX9...con i titoli DX10 sarà dura :D )
Byez
Quoto :P :cool:

aaasssdddfffggg
01-12-2006, 11:27
Appunto!!!A 1280x1024 non ci stanno guadagni rispetto alla concorrenza proprio perchè queste schede hanno bisogno di lavorare a risoluzioni alte e non a quelle ridicole di 1280x1024.Per questa risoluzione ci sono milioni di schede in commercio da prendere.

firmus
01-12-2006, 11:42
Per questa risoluzione ci sono milioni di schede in commercio da prendere.

Su questo concordo. Secondo me se una persona vuole giocare i titoli DX9 a 1280x1024 bene non ha bisogno di G80, ci sono molte altre schede valide, soprattutto la serie 1900 di Ati come rapporto prestazioni/prezzo.
Altrimenti la 7950 GX2, a patto però di pagarla meno di un G80 ;).
Altrimenti, se si vuole salire a 1920x1200 o più, in DX9, e con filtri attivati G80 ora come ora è d'obbligo.
Ciauz

LUCH81
01-12-2006, 11:48
Perdonami ma non tutti i frequentatori di hwupgrade sono milionari... :mbe:
Quindi bene che si facciano test a quelle risoluzioni... ma male che si "facciano con le altre"... Quelle ris. riguardano in realtà solo una stretta nicchia di persone...
Agire a quelle risoluzioni serve soprattutto quando non vi sono game di ultimissima generazione in grado di mettere in difficoltà una scheda video molto potente e di ultimissima uscita...
QUOTO!!! ;)

Dj Antonino
01-12-2006, 16:12
Appunto!!!A 1280x1024 non ci stanno guadagni rispetto alla concorrenza proprio perchè queste schede hanno bisogno di lavorare a risoluzioni alte e non a quelle ridicole di 1280x1024.Per questa risoluzione ci sono milioni di schede in commercio da prendere.
scusa, ma ad esempio in oblivion si hanno tangibili miglioramenti anche a 1280x1024.. ok è un gioco pesantissimo, magari ottimizzato male.. fatto sta che se uno vuole giocare a oblivion con le 8800 riesce ad avere + frame che con una x1950xtx.. anche a 1280x1024.. uno non si compra queste schede per giocare a pacman a 1280.. i giochi pesanti ci sono e le 8800 vanno meglio della concorrenza anche a 1280.. non mi sembra così difficile da capire..

psychok9
02-12-2006, 01:32
Appunto!!!A 1280x1024 non ci stanno guadagni rispetto alla concorrenza proprio perchè queste schede hanno bisogno di lavorare a risoluzioni alte e non a quelle ridicole di 1280x1024.Per questa risoluzione ci sono milioni di schede in commercio da prendere.

Mi dispiace ma non è per niente così... non tieni conto di tanti fattori come la longevità, il fatto che è una dx10 e che non è detto che cambi scheda video ogni 6 mesi come "pochi" si possono permettere di fare... e poi me li voglio vedere tutti i 2500x1300 con giochi del 2007-2008 :D
Alzare la risoluzione serve soltanto ad aumentare il carico visto che non è possibile aumentare ulteriormente il dettaglio dei videogame testati.

psychok9
02-12-2006, 01:36
Su questo concordo. Secondo me se una persona vuole giocare i titoli DX9 a 1280x1024 bene non ha bisogno di G80, ci sono molte altre schede valide, soprattutto la serie 1900 di Ati come rapporto prestazioni/prezzo.
Altrimenti la 7950 GX2, a patto però di pagarla meno di un G80 ;).
Altrimenti, se si vuole salire a 1920x1200 o più, in DX9, e con filtri attivati G80 ora come ora è d'obbligo.
Ciauz

Non è così... è solo una questione "temporale"...
1920x1200 o superiori li usano 3 su 1000...
Quindi meno risoluzioni testano, meno gente sarà interessata ai bench del suddetto sito e più gente cercherà da altre parti... :(

aaasssdddfffggg
02-12-2006, 11:07
Ma infatti.Per 2560x1600 ci servono 2 880ggtx in SLI.Non ho mai detto di usare una sola...Con uno SLI così la 2560x1600 te la godi eccome.Fidati che ce l'ho sotto gli occhi.

firmus
02-12-2006, 11:11
Non è così... è solo una questione "temporale"...
1920x1200 o superiori li usano 3 su 1000...
Quindi meno risoluzioni testano, meno gente sarà interessata ai bench del suddetto sito e più gente cercherà da altre parti... :(

Beh non è proprio vero. Mi pare che qui su hwu siamo ben + di 3 persone ad andare a 1920x1200 ;)
Cmq a 1280x1024 G80 eroga una marea di fps con tutti i titoli DX9, cosa però possibile anche con soluzioni di fascia inferiore, soprattutto la serie 1900 di ati.
Per questo a quella risoluzione secondo me l'acquisto di G80, solo per titoli DX9, in generale non è fondamentale...a meno che uno non sia appassionato, che so, di Oblivion, e voglia il max del max con filtri e controfiltri...si insomma va a gusti ;)
Piuttosto a 1280x1024 si può vedere come scali la potenza di G80 a seconda del sistema AMD/Intel sottostante ;) In quel senso lo ritengo un test molto utile.
Poi ovvio che se uno vuole un minimo di supporto DX10 già a partire da ora, allora andrà sicuramente su G80.
Ma sono ben conscio che i primi titoli DX10 non gireranno al max del max forse neanche a 1280x1024 ;)
Ciauz

aaasssdddfffggg
02-12-2006, 11:11
Ma vi rendete conto fdi quello che state dicendo?Volete prendervi una 8800gtx per usarla a 1280x1024?E' una bestemmia.Non cambio opinione.

firmus
02-12-2006, 11:13
Ma infatti.Per 2560x1600 ci servono 2 880ggtx in SLI.Non ho mai detto di usare una sola...Con uno SLI così la 2560x1600 te la godi eccome.Fidati che ce l'ho sotto gli occhi.

Ciao, quando hai tempo e voglia ;) Mi faresti il test delle prestazioni di FEAR a 2560x1600 con aa 4x ed af 16x?Giusto per vedere il vantaggio di passare alla soluzione SLI in termini di fps. Ci sto facendo un pensierino ma sono indeciso ;)!
Thanks

Tetsujin
02-12-2006, 11:17
Sinceramente non capisco il problema nell'inserire un grafico di un bench a 1280x1024. Saranno forse motivi ideologici come il buon Nemesis_elite ci riporta? Non penso che un sito tecnico come questo viva dietro l'ideologia, eppure anche nell'ultima recensione delle Asus, nonostante il coro delle richieste, non comparivano le risoluzioni più comuni :muro:
Visto che all'ideologia non ci credo, a me viene il dubbio che dietro a queste G80 ci siano accordi commerciali che spingano il mercato dei monitor dai 20" in su :mbe:

Tetsujin
02-12-2006, 11:19
Non è così... è solo una questione "temporale"...
1920x1200 o superiori li usano 3 su 1000...
Quindi meno risoluzioni testano, meno gente sarà interessata ai bench del suddetto sito e più gente cercherà da altre parti... :(

A volte le cose troppo semplici sono le più incomprensibili, mah :rolleyes:

aaasssdddfffggg
02-12-2006, 11:23
La media tutto al massimo è di 52 FPS.Intendo a 2560x1600 4X af 16x.Il guadango è di circa 80%.Testato con 2 8800GTX in SLI Core2 duo extreme 6800 @ 3,8 Ghz 2 giga Corsair 8888.

aaasssdddfffggg
02-12-2006, 11:25
Comunqe resto semrpe dell'idea che il motore di FEAR non è assolutamente tra i migliori in circolazione.

firmus
02-12-2006, 11:25
La media tutto al massimo è di 52 FPS.Intendo a 2560x1600 4X af 16x.Il guadango è di circa 80%.Testato con 2 8800GTX in SLI Core2 duo extreme 6800 @ 3,8 Ghz 2 giga Corsair 8888.

Thanks ;)!80% farò le mie considerazioni, boh magari vedrò con R600 o con il restyling di G80 che fare.
Grazie ancora :)

Tetsujin
02-12-2006, 11:29
La media tutto al massimo è di 52 FPS.Intendo a 2560x1600 4X af 16x.Il guadango è di circa 80%.Testato con 2 8800GTX in SLI Core2 duo extreme 6800 @ 3,8 Ghz 2 giga Corsair 8888.

Beh secondo me spendere 2500 euro per giocare a 52 fps di media :read: è come comperarsi una pala e darsela nei @@ da soli :asd:

Non sarebbe meglio giocare a una risoluzione minore ed avere fps più elevati? Ma no, altrimenti la scheda sarebbe sprecata :doh:

aaasssdddfffggg
02-12-2006, 11:30
Tu stai fuori.2560x1600 a 50 frame di media è uno spettacolo per gli occhi.Ma questo vale per FEAR.Per gli altri titoli altro che 50 frame...

Tetsujin
02-12-2006, 11:31
Tu stai fuori.2560x1600 a 50 frame di media è uno spettacolo per gli occhi.Ma questo vale per FEAR.Per gli altri titoli altro che 50 frame...

Si certo. Ma quella è (appunto) la media. E il minimo quant'è?

aaasssdddfffggg
02-12-2006, 11:32
Tieni sempre presente che la 800gtx è una dirextx10 nativa...non la stiamo ancora sfruttando.Ma gli articoli di CORSINI li leggete oppure entratre subito nel forum a sparare cazzate?Contenti voi...

firmus
02-12-2006, 11:32
Beh secondo me spendere 2500 euro per giocare a 52 fps di media :read: è come comperarsi una pala e darsela nei @@ da soli :asd:

Non sarebbe meglio giocare a una risoluzione minore ed avere fps più elevati? Ma no, altrimenti la scheda sarebbe sprecata :doh:

Beh dai ognuno fa quello che vuole no ;)!Se uno vuole il max a 2560x1600 e vuole e può spendere anche 10000 euro ben per lui.
Almeno io la penso così, ognuno fa ciò che vuole dei suoi soldi.
Ciauz

Tetsujin
02-12-2006, 11:38
Tieni sempre presente che la 800gtx è una dirextx10 nativa...non la stiamo ancora sfruttando.Ma gli articoli di CORSINI li leggete oppure entratre subito nel forum a sparare cazzate?Contenti voi...

Per quando usciranno le dx10, tu ne avrai già cambiate 3 di schede video :asd:

giusto per rendere un'idea (poi naturalmente uno i soldi li puo' anche usare per accendersi le sigarette):

http://img92.imageshack.us/img92/967/immagineei4.jpg

guarda come gira Fear (tutto al max @1280x960) quando hai già 64 fps di media :read:

Tetsujin
02-12-2006, 11:41
Beh dai ognuno fa quello che vuole no ;)!Se uno vuole il max a 2560x1600 e vuole e può spendere anche 10000 euro ben per lui.
Almeno io la penso così, ognuno fa ciò che vuole dei suoi soldi.
Ciauz

Su questo non ci sono dubbi. Non sto criticando la scelta che uno fa di comprarsi il max dell'hardware (sono soldi suoi e li spende come vuole).

Critico invece questo ragionamento di fondo secondo cui chi si compra una 8800GTX senza prima essersi comprato un 24" sta sprecando i suoi soldi

aaasssdddfffggg
02-12-2006, 11:42
Ma vi siete fissati co sto FEAR?Allora facciamo il punto su quello che conta realmente.Il ceo di CRYEK ha affermato che con uno SLI su 8800 si avrà un frame rate di 60 stabili tutto al massimo e giocato su un 30" a 2560x1600.....ovviamente in directx10!Questo conta e non quella mezza cazzata di FEAR che continuate a fare sempre riferimento;d'altronde ha un motore grafico che sembra essere stato programmato con il piccone.Saluti.

Tetsujin
02-12-2006, 11:44
Ma vi siete fissati co sto FEAR?Allora facciamo il punto su quello che conta realmente.Il ceo di CRYEK ha affermato che con uno SLI su 8800 si avrà un frame rate di 60 stabili tutto al massimo e giocato su un 30" a 2560x1600.....ovviamente in directx10!Questo conta e non quella mezza cazzata di FEAR che continuate a fare sempre riferimento;d'altronde ha un motore grafico che sembra essere stato programmato con il piccone.Saluti.


Hai presente la volpe e l'uva? :asd:

Hai ragione, Fear fa proprio schifo :sofico:

aaasssdddfffggg
02-12-2006, 11:45
Goditi FEAR.Io attendo ben altro.

firmus
02-12-2006, 11:48
Critico invece questo ragionamento di fondo secondo cui chi si compra una 8800GTX senza prima essersi comprato un 24" sta sprecando i suoi soldi

Diciamo che concordo sul fatto delle dx10. Cioè per me adesso come adesso si può fare a meno di G80 per usarla a 1280x1024, mentre con le dx10 sarà ridimensionata a quella risoluzione.
Non è che senza un 24" non si possa usare, però la si apprezza di più :D
Ciauz

Tetsujin
02-12-2006, 11:52
Goditi FEAR.Io attendo ben altro.

E tu ti fidi delle promesse del ceo di Crytek?

Non è più logico comprarsi il 30" dopo che è uscito il gioco e intanto sfruttare l'enorme potenza di queste schede su una risoluzione più normale che ti permetta di avere con qualunque titolo una fluidità spaventosa?

Imho nella scelta del monitor ti sei fatto un po' abbindolare dalle recensioni come quella apparsa su questo forum

aaasssdddfffggg
02-12-2006, 11:54
Ma tu mi sa che non hai mai visto lavorare 2 8800gtx in SLI.A questo punto mi fermo qui...sto perdendo tempo con qualche giovincello.

aaasssdddfffggg
02-12-2006, 11:57
Un ultima cosina.E' uscito un video di Crysis in cui un mebro dello staff gioca con lo stesso direttamente ripreso su un DELL 3007.......Mi fermo qui.

Tetsujin
02-12-2006, 11:58
Diciamo che concordo sul fatto delle dx10. Cioè per me adesso come adesso si può fare a meno di G80 per usarla a 1280x1024, mentre con le dx10 sarà ridimensionata a quella risoluzione.
Non è che senza un 24" non si possa usare, però la si apprezza di più :D
Ciauz

Certo. L'importante è trovare la giusta proporzione tra monitor e fluidità. Allo stato attuale queste schede sono in grado di far girare qualunque titolo con fps minimi (che sono poi quelli che fanno la differenza) elevatissimi.
Precludersi questa possibilità per fare lo "sborone" e poi trovarsi risoluzioni altissime con fps paragonabili o addirittura inferiori a quelli che ottieni giocando con schede video della generazione precedente, mi sembra una contraddizione gigantesca.

Tetsujin
02-12-2006, 12:01
Un ultima cosina.E' uscito un video di Crysis in cui un mebro dello staff gioca con lo stesso direttamente ripreso su un DELL 3007.......Mi fermo qui.

Di cosa ti preoccupi? Ripeto: quando uscità Crysis, tu avrai già delle schede video più potenti. Puoi dormire sonni tranquilli :D

edit: e probabilemente avrai anche il nuovo dell 40", sul quale pero' giocherai a 52 di media con fps minimi di 20 :asd:

capitan_crasy
02-12-2006, 12:02
Goditi FEAR.Io attendo ben altro.
allora vediamo:
8800GTX Vs 1950XTX a 1280x1024

Half-Life 2: Lost Coast
http://www.firingsquad.com/hardware/geforce_8800_gtx_gts_amd_cpu_scaling/images/c1280.gif
+16.7 frame per il G80

Dark Messiah of Might and Magic
http://www.firingsquad.com/hardware/geforce_8800_gtx_gts_amd_cpu_scaling/images/dm1280.gif
+36.5 frame per il G80

Battlefield 2142
http://www.firingsquad.com/hardware/geforce_8800_gtx_gts_amd_cpu_scaling/images/bf21280.gif
+59 frame per il G80

Quake 4
http://www.firingsquad.com/hardware/geforce_8800_gtx_gts_amd_cpu_scaling/images/d31280.gif
+49.2 per il G80

Oblivion HDR+AA
http://www.firingsquad.com/hardware/geforce_8800_gtx_gts_amd_cpu_scaling/images/aamts1280.gif
+61.3 per il G80 :rolleyes:

Far Cry HDR
http://www.firingsquad.com/hardware/geforce_8800_gtx_gts_amd_cpu_scaling/images/fc1024.gif
+48.2 per il G80

Sono ancora inutili i bench a 1280x1024??? :read:

firmus
02-12-2006, 12:02
Certo. L'importante è trovare la giusta proporzione tra monitor e fluidità. Allo stato attuale queste schede sono in grado di far girare qualunque titolo con fps minimi (che sono poi quelli che fanno la differenza) elevatissimi.
Precludersi questa possibilità per fare lo "sborone" e poi trovarsi risoluzioni altissime con fps paragonabili o addirittura inferiori a quelli che ottieni giocando con schede video della generazione precedente, mi sembra una contraddizione gigantesca.

Ok, concordo pienamente :). Però a 2560x1600 con 2 GTX secondo me Ti godi diversi titoli DX9 che nessun altro sistema potrebbe darti.
Per dire GTR2 passando da 1280x1024 su un 17", a 1920x1200 su 24" diventa stratosferico, IMHO :D Penso che su un 30" a 2560x1600 sia ancora più spettacolare.
Ciauz

firmus
02-12-2006, 12:05
Sono ancora inutili i bench a 1280x1024??? :read:

Scusa, ma a parte Oblivion che partirebbe da 40 fps....tutti gli altri titoli partono da 60/70 fps con la 1950!
E' inutile averne 120 con G80, il gioco è già perfettamente fluido!!!!!

Tetsujin
02-12-2006, 12:07
Ok, concordo pienamente :). Però a 2560x1600 con 2 GTX secondo me Ti godi diversi titoli DX9 che nessun altro sistema potrebbe darti.
Per dire GTR2 passando da 1280x1024 su un 17", a 1920x1200 su 24" diventa stratosferico, IMHO :D Penso che su un 30" a 2560x1600 sia ancora più spettacolare.
Ciauz

Si, te ne godi tanti ma non tutti. Spendendo quella cifra, io pretenderei di godermeli appieno tutti :D

Per questo secondo me il 30" è allo stato attuale un acquisto prematuro. Meglio un 24" oppure un 22" :)

Tetsujin
02-12-2006, 12:09
Scusa, ma a parte Oblivion che partirebbe da 40 fps....tutti gli altri titoli partono da 60/70 fps con la 1950!
E' inutile averne 120 con G80, il gioco è già perfettamente fluido!!!!!

Beh...occhi che quei valori sono valori medi. 60 fps di media puo' voler dire averne 20-25 nelle situazioni più concitate, il che non rende un gioco propriamente fluido in ogni situazione :)

firmus
02-12-2006, 12:10
Spendendo quella cifra, io pretenderei di godermeli appieno tutti :D

Verissimo :D

capitan_crasy
02-12-2006, 12:12
Scusa, ma a parte Oblivion che partirebbe da 40 fps....tutti gli altri titoli partono da 60/70 fps con la 1950!
E' inutile averne 120 con G80, il gioco è già perfettamente fluido!!!!!
ma io non metto in dubbio la fluidità!
Il test a 1280x1024 serve per stabilire il divario con la vecchia generazione di GPU, sia di ATI sia di Nvidia; tutto qui...

firmus
02-12-2006, 12:12
Beh...occhi che quei valori sono valori medi. 60 fps di media puo' voler dire averne 20-25 nelle situazioni più concitate, il che non rende un gioco propriamente fluido in ogni situazione :)

Beh torniamo ai discorsi di prima allora ;)!Basta togliere qualche filtro e la 1950 recupera in fretta imho. Rimango della mia idea, a meno che uno non si impunti per volere il max del max a 1280x1024 con tutti i filtri al max, G80 a quella risoluzione non è necessario :)!!!
Ciauzzzz

firmus
02-12-2006, 12:15
ma io non metto in dubbio la fluidità!
Il test a 1280x1024 serve per stabilire il divario con la vecchia generazione di GPU, sia di ATI sia di Nvidia; tutto qui...

Ah beh quello è indubbio :)!Ma difatti come ho detto prima, i test a 1280x1024 per me sono molto utili per vedere anche il divario di prestazioni tra i sistemi AMD/Intel su cui viene montata una scheda basata su G80.
Insomma, in definitiva, per me i test ci possono stare eccome a 1280x1024 :D Ma non per consigliarne l'acquisto come indispensabile alternativa alle ammiraglie dx9 precedenti ;)

Tetsujin
02-12-2006, 12:16
ma io non metto in dubbio la fluidità!
Il test a 1280x1024 serve per stabilire il divario con la vecchia generazione di GPU, sia di ATI sia di Nvidia; tutto qui...

esattamente. Serve per avere un termine di paragone più completo e più concreto

aaasssdddfffggg
02-12-2006, 12:36
8800GTX IN SLI su 30" 2560x1600 = spettacolo assoluto.E' proprio vero.Al momento è nVIDIA a ridefinire la grafica.
Battlefield 2.... 96 frame di media a 256x1600 full
Battlefield 2142...82 frame di media a 2560x1600 full
Half life 2 episode one...127 frame di media a 2560x1600 full
GTR2 .......82 frame di media a 2560x1600 full
Quake 4..... 86 frame di media aq 2560x1600 full

Le parole lasciano il tempo che trovano.
Saluti a tutti.

Tetsujin
02-12-2006, 12:40
8800GTX IN SLI su 30" 2560x1600 = spettacolo assoluto.E' proprio vero.Al momento è nVIDIA a ridefinire la grafica.
Battlefield 2.... 96 frame di media a 256x1600 full
Battlefield 2142...82 frame di media a 2560x1600 full
Half life 2 episode one...127 frame di media a 2560x1600 full
GTR2 .......82 frame di media a 2560x1600 full
Quake 4..... 86 frame di media aq 2560x1600 full

Le parole lasciano il tempo che trovano.
Saluti a tutti.

Come mai non posti mai i frame minimi nelle situazioni più concitate?

firmus
02-12-2006, 12:44
Beh dai non penso che da 82 fps crolli a 25 nelle scene più complesse ;)
Per me sono dei risultati notevoli considerando la risoluzione a cui sono stati eseguiti :)
Ciauz

aaasssdddfffggg
02-12-2006, 12:44
Questa è DREAM MACHINE amico mio.Mi auguro che riuscirai a vederne una dal vivo così te ne renderai conto personalmente cosa vogliono dire quei nmumeri con grafica tutto al massimo a 2560x1600.
Salutiiiiiiiiiiiiiiiiiiiiiiiiii!!!!!!!!!!!!

Tetsujin
02-12-2006, 12:46
Beh dai non penso che da 82 fps crolli a 25 nelle scene più complesse ;)
Per me sono dei risultati notevoli considerando la risoluzione a cui sono stati eseguiti :)
Ciauz

Non lo so, in effetti lo scopo della mia domanda è saperlo, visto che è un dato imho più rilevante del puro valore medio :)

aggiungo: il problema è restiamo tutti così basiti dalla risoluzione esagerata, che perdiamo di vista l'aspetto fondamentale: la fluidità che in un sistema di quel genere e di quel costo deve essere sempre ai massimi livelli, non solo di media, ma anche quando stai crivellando 15 mutanti che ti lanciano granate a non finire :)

Tetsujin
02-12-2006, 12:49
Questa è DREAM MACHINE amico mio.Mi auguro che riuscirai a vederne una dal vivo così te ne renderai conto personalmente cosa vogliono dire quei nmumeri con grafica tutto al massimo a 2560x1600.
Salutiiiiiiiiiiiiiiiiiiiiiiiiii!!!!!!!!!!!!

:doh:

16 anni?

ottima argomentazione tecnica :ciapet:

mi rendo conto che non ti gira tutto cosi bene come vuoi far credere (basta andare a leggere la pag precedente) quindi tante arie non sono poi giustificate ;)

aaasssdddfffggg
02-12-2006, 13:01
Ti auguro davvero di vederne una dal vivo.Buon pranzo.

aaasssdddfffggg
02-12-2006, 13:02
Ti auguro davvero di vederne una dal vivo.Buon pranzo.

capitan_crasy
02-12-2006, 13:11
Ti auguro davvero di vederne una dal vivo.Buon pranzo.
ho avuto la fortuna di vedere una Workstation ad alte prestazioni in azione e non parlo di pc desktop, parlo di macchine in grado di eseguire rendering video e 3D per aziende del settore...
Quelle sono veramente delle "DREAM MACHINE"! :rolleyes:

aaasssdddfffggg
02-12-2006, 13:14
Ma io parlo di PC (PERSONAL COMPUTER) non di WORKSTATION!!!!Ma devo sempre correggerti?Saluti.Scappo a pranzo.

Tetsujin
02-12-2006, 13:27
Ti auguro davvero di vederne una dal vivo.Buon pranzo.

Beh grazie ma non è questione di auguri o di fortuna: basta prendere il libretto degli assegni e compilarne uno ;)

Forse tra qualche anno capirai che non c'è da vantarsi ad avere un dell 30" piuttosto che una R1 o anche una Ferrari. E' questione di soldi, e spesso più ne hai, meno onesto sei ;)

aaasssdddfffggg
02-12-2006, 14:28
Si.Puo' essere anche vero quello che dici ma su questo mondo non tutti siamo uguali.Per fortuna aggiungo.

leoneazzurro
02-12-2006, 15:50
E io aggiungo che questo tipo di polemiche devono finire.
Tra parentesi, Nemesis Elite, non si era detto che ti saresti dovuto limitare nel vantarti dei tuoi sistemi (Raven ti aveva già richiamato)?

aaasssdddfffggg
02-12-2006, 16:05
Stai tranquillo.Non ce nesun problema.Vuoi entrare in discussione anche tu?Sei ben accetto.

capitan_crasy
02-12-2006, 16:49
Edit
ho letto il post di leoneazzurro solo ora...

aaasssdddfffggg
03-12-2006, 11:58
Nonostante le intenzioni, Amd/Ati sarà costretta a rilasciare R600, la nuova gpu, a febbraio, in luogo di gennaio come originariamente voluto dai vertici dell'azienda di Sunnyvale.

Confermato, per questo processore grafico, il processo produttivo ad 80 nanometri e le piene funzionalità DirectX10; sulla base di quanto detto circa il rilascio, è adesso ipotizzabile che questo avvenga all'incirca nello stesso periodo in cui sarà presentato Windows Vista.

Tutto ciò mentre nVidia non dorme sicuramente sugli allori, dal momento che sta preparando una versione di G80 più veloce dell'attuale e che sarà pronta per il CeBit di Hannover, a marzo.
Questo vuol dire che se R600 dovesse risultare più veloce di G80 avrà scarso un mesetto soltanto di gloria...

Duzzo
03-12-2006, 13:48
io ritengo che come al solito i "tifofi" di ati o nvidia cercheranno di acaparrarsi le nuove tecnologie con supporto Directx10 delle loro "preferite marche " almeno che 1 delle due case non riserve qualche brutta sorpresa tale da rendere troppo infelice la scelta , fin che cè una leggera altalena di prezzo prestazioni difficilmente 1 marca calpesterà l'altra.................................forse a memoria l'ati assestò un bel colpo con 9800pro/xt per il resto.................

Duzzo
03-12-2006, 13:51
scusate gli errori/orrori di solito edito 2-3- volte i messaggi ma qui non posso lol

bonzuccio
03-12-2006, 17:04
[QUOTE=Duzzo]a memoria l'ati assestò un bel colpo con 9800pro/xt per il resto.................[/QUOTE

per il resto cosa? rendi partecipe anche me dai :D :lamer:
le uniche schede nvidia degne di essere prese in considerazione "erano" la 6800gs nv40 e non nv41 su agp visto che poteve diventare ultra o quadro e la 7600gs.. punto, questo per le dx9 anche se con molti se e molti ma anche per queste 2 schede
visti i trascorsi per le dx10 o ci si fa affascinare dal gran salto di qualità di queste 8800 o si aspetta r600 che non sarà da meno se non altro per vedere i prezzi abbassarsi ad umani livelli(eh, la concorrenza!)

aaasssdddfffggg
03-12-2006, 18:27
Caro Bonzuccio ma adesso come adesso il leader indiscusso sotto tutti i punti di vista e la 8800.Credo che su questo non cisiano dubbi.Esatto?Ed ati al momento dove sta?Assente.Non appena arriverà sul mercato a febbraio,ammesso dovesse riuscire a superare G80,il mese dopo è molto facile che tornerà a stare dietro nVIDIA con la bella revisione del g80.In questo preciso momento Ati non è che fa la parte del leone...

Free Gordon
03-12-2006, 18:31
Questo vuol dire che se R600 dovesse risultare più veloce di G80 avrà scarso un mesetto soltanto di gloria...


Assurdo... :asd:
Si fanno le previsioni sulle previsioni... stupendo!!! :ciapet:

aaasssdddfffggg
03-12-2006, 18:36
Ne riparliamo tra un paio di mesi.Anche prima che uscisse G80 dopo che cominciarono ad uscire le specifiche tecniche sui vari siti ,si dava della fantascienza ma alla fine risulto' tutto vero il progetto : 700 milioni di transistor,128 stream processors, 768 mega a 384 bit e via dicendo...
Sarai un altro abbonato a quel genere di film tu.

psychok9
03-12-2006, 23:10
Non capisco questa gioia nel vedere la supremazia di una squadra, ehm, casa hardware... la migliore situazione possibile per noi è un eguale altalena... però senza correre troppo... per non esagerare nei consumi a scanso dell'efficenza hardware e software...
Comunque visto che qua qualcuno sa più degli altri... attorno a quale periodo si prospetta l'uscita dell'R600 di fascia media?

bonzuccio
04-12-2006, 19:30
Caro Bonzuccio ma adesso come adesso il leader indiscusso sotto tutti i punti di vista e la 8800.Credo che su questo non cisiano dubbi.Esatto?Ed ati al momento dove sta?Assente.Non appena arriverà sul mercato a febbraio,ammesso dovesse riuscire a superare G80,il mese dopo è molto facile che tornerà a stare dietro nVIDIA con la bella revisione del g80.In questo preciso momento Ati non è che fa la parte del leone...


Non ci sono dubbi ma è anche vero che r600 esce quando serve e cioè appena prima dell'uscita delle dx10, non sottovaluterei il maggior tempo a disposizione per ati, staremo a vedere e speriamo di vederne delle belle come sempre :)

aaasssdddfffggg
05-12-2006, 13:58
Ben detto.