PDA

View Full Version : GeForce 7900: i 90 nanometri secondo NVIDIA


Pagine : [1] 2

Redazione di Hardware Upg
09-03-2006, 15:00
Link all'Articolo: http://www.hwupgrade.it/articoli/skvideo/1450/index.html

Ad oltre sette mesi dal lancio di G70, NVIDIA si appresta a rinnovare la sua offerta nella fascia alta del mercato con G71. Tale prodotto è stato pensato per dare battaglia alle soluzioni ATI Radeon X1900 non solo dal punto di vista velocistico, ma soprattutto in termini di efficienza delle rese produttive.

Click sul link per visualizzare l'articolo.

bartolino3200
09-03-2006, 15:07
Belle schede!!!

nVidia stravince ancora una volta la sfida nella silenziosità e consumi.
Dai grafici emerge chiaramente che la top di gamma di nVidia è ben più silenziosa e consuma meno energia di ATI.
E se si vedono recensioni di altri siti, il divario cresce ancor più a favore di nVidia.

Se dovessi comprare adesso una nuova VGA prenderei cmq una 7900GT, il cui prezzo è certamente il più convincente rispetto alle prestazioni che offre.

In Italia ci sono shop che mettono la 7900GT a 340 euro con tre giochi in bundle:
Point of View 7900 GT PCI-E 256Mb. RETAIL + GIOCHI : Splinter Cell Chaos Theory, Brothers in arms, Splinter Cell Pandora Tomorrow

Questo significa che un bundle più modesto lo si potrà trovare a 300 euro tondi tondi, nel giro di poco.

ulk
09-03-2006, 15:08
Una minestra riscaldata.


:Puke:

Dante89
09-03-2006, 15:08
Realmente sono più veloci, delle 7800, quella più impressionante è la gt 300mhz sulle memorie sono un bel pò! :)

MaBru
09-03-2006, 15:08
Come mai sono stati usati i 6.1 beta per le Radeon e i 84.17 (che neanche si trovano) per le Geffo? Spero in un errore di battitura.

Daytona
09-03-2006, 15:11
@Raffaele

Ottima rece Raffaele :)


...ma mi spieghi come fai a dire che la X1900XT/XTX è piu' silenziosa della 7800GTX 256 ?

Le X1900 impostano la turbina al 36% di velocità di rotazione(velocita silenziosa) fino a alla temperatura di 88°, toccata questa temperatura passano al 50% di velocità di rotazione (velocità abbastanza rumorosa).... il fatto è che con la turbina al 36% la temperatura dopo pochi minuti e soprattutto durante un bench arriva subito a 88° portando la turbina al 50% che produce un rumore ben superiore alla 7800GTX che ho avuto modo di ascoltare da un mio amico durante dei bench ;)

1100000110100000
:)

MaBru
09-03-2006, 15:17
Perché non scrivete che versione dei giochi avete usato?

Logico68
09-03-2006, 15:18
Non vorrei sbagliarmi ma per la prima volta siamo davanti ad un pareggio. Avanti la prossima generazione....

Rufus86
09-03-2006, 15:21
Sostanzialmente deluso, un mero die shrink di G70 a 90nm con frequenze maggiori. R580 è decisamente superiori (e un "imho" penso non serva) e mostrerà la sua superiorità solo con i titoli futuri. G71 va bene ora, con i titoli attuali, ma quando usciranno engine che faranno uso massiccio di shader sarà tutta un altra storia ed R580 distaccherà di non poco la "nuova" GPU nVIDIA.

Interessante, comunque, la riduzione dei transistor..

savethebest
09-03-2006, 15:22
Una minestra riscaldata.


:Puke:

senza ombra di dubbio.

ma bisogna anche dire che la 7900gt è una ottima scheda, migliore della 7800gtx 256 e costa "solo" 330 euro!
la vera protagonista di questa recensione è la 7900gt, non la gtx... imho

bartolino3200
09-03-2006, 15:24
@Raffaele

Ottima rece Raffaele :)


...ma mi spieghi come fai a dire che la X1900XT/XTX è piu' silenziosa della 7800GTX 256 ?

Le X1900 impostano la turbina al 36% di velocità di rotazione(velocita silenziosa) fino a alla temperatura di 88°, toccata questa temperatura passano al 50% di velocità di rotazione (velocità abbastanza rumorosa).... il fatto è che con la turbina al 36% la temperatura dopo pochi minuti e soprattutto durante un bench arriva subito a 88° portando la turbina al 50% che produce un rumore ben superiore alla 7800GTX che ho avuto modo di ascoltare da un mio amico durante dei bench ;)

1100000110100000
:)

Guarda ammiro e apprezzo la tua onestà.
Chi meglio di te che la possiede una X1900XT e che ha avuto anche la possibilità di confrontarla con una 7800GTX, può confermare la cosa?
Personalmente mi fido molto di quello che dici ;)

Bl@st
09-03-2006, 15:24
Mmmm... Ma niente versioni agp ?

Daytona
09-03-2006, 15:25
Non vorrei sbagliarmi ma per la prima volta siamo davanti ad un pareggio. Avanti la prossima generazione....

Per me ti sbagli ...di poco ma ti sbagli ;) ;)

riporto questo concetto:

Il problema è che lo scenario più probabile con i giochi futuri lo fa intuire FEAR con i filtri dove la X1900 va un 15-20% più veloce della 7900GTX

1100000110100000
:)

bartolino3200
09-03-2006, 15:27
senza ombra di dubbio.

ma bisogna anche dire che la 7900gt è una ottima scheda, migliore della 7800gtx 256 e costa "solo" 330 euro!
la vera protagonista di questa recensione è la 7900gt, non la gtx... imho

Esattamente in linea con il mio ragionamento.
Certo un po' mi rode aver preso a Gennaio la 7800GT a 299 euro.
Ma ben venga, anzi beati voi che ora potrete acquistare la miglior scheda prezzo/prestazioni con un budget decisamente più accessibile che in passato.
330 euro per una 7900GT valgono il sacrificio eccome e ti danno una scheda High end ad un prezzo più vicino a quelle di fascia media.
Secondo me di 7900GT ne venderanno a palate.

Dr House
09-03-2006, 15:32
Belle schede!!!

nVidia stravince ancora una volta la sfida nella silenziosità e consumi.
Dai grafici emerge chiaramente che la top di gamma di nVidia è ben più silenziosa e consuma meno energia di ATI.


abbiamo visto lo stesso grafico?

http://www.hwupgrade.it/articoli/1450/db.png

no perchè un 2% di differenza nel rumore (50/54 VS 51/55) fra le top se tu lo definisci stravincere devi avere un udito migliore di superman e daredevil messi insieme

per non parlare poi della 7900gt che è risultata la + rumorosa in maniera "evidentissima", sempre usando i tuoi termini di paragone

Buffus
09-03-2006, 15:35
a questo link

http://www.hwupgrade.it/articoli/skvideo/1450/14.html

intitolato "farcry e hl2 massimo dettaglio", non compaiono le immagini relative ad hl2 ;)

ottimo articolo


solo non capisco come si possa definire ottimo il comportamento in rumorosità.... :confused:

bartolino3200
09-03-2006, 15:36
@Raffaele

Ottima rece Raffaele :)


...ma mi spieghi come fai a dire che la X1900XT/XTX è piu' silenziosa della 7800GTX 256 ?

Le X1900 impostano la turbina al 36% di velocità di rotazione(velocita silenziosa) fino a alla temperatura di 88°, toccata questa temperatura passano al 50% di velocità di rotazione (velocità abbastanza rumorosa).... il fatto è che con la turbina al 36% la temperatura dopo pochi minuti e soprattutto durante un bench arriva subito a 88° portando la turbina al 50% che produce un rumore ben superiore alla 7800GTX che ho avuto modo di ascoltare da un mio amico durante dei bench ;)

1100000110100000
:)

Per il DRhouse, e aspetta che ti metta le recensioni di altri siti.
Stranamente, il divario cresce sempre a favore di nVidia, chissà come mai...

Poi magari se ci postassi anche i consumi, che ancora una volta su questo sito non vengono fatti a parità di macchina...
Non che ci voglia un genio a capire che una mobo NF4 SLI consuma ben di più di una CF.

Altra cosa stavolta alla redazione, perchè non cominciate a proporre i test SLI e CF in modo totalmente separato da quelli a singola scheda?
Non si capisce una mazza, troppa confusione e numerini da leggere. Più che grafici sembrano mosaici.
Al massimo poi alla fine fate una media di Multi GPU e Single GPU per vedere le effettive differenze.
Ma quei minestroni fra SLI CF e le single, sono davvero inguardabili, considerando poi che interessano alla minoranza in temini pratici cui prodest?

Dante89
09-03-2006, 15:36
Esattamente in linea con il mio ragionamento.
Certo un po' mi rode aver preso a Gennaio la 7800GT a 299 euro.
Ma ben venga, anzi beati voi che ora potrete acquistare la miglior scheda prezzo/prestazioni con un budget decisamente più accessibile che in passato.
330 euro per una 7900GT valgono il sacrificio eccome e ti danno una scheda High end ad un prezzo più vicino a quelle di fascia media.
Secondo me di 7900GT ne venderanno a palate.
Ordinata adesso :)

jp77
09-03-2006, 15:37
sostanzialmente non è cambiato molto schede buone ma non ottime...Nvidia a puntato molto di più sul processo produttivo (e dunque calo dei prezzi) che su aumenti di potenza...ho come il presentimento che a settembre vedremo il G80 in commercio...un commento a parte per la 7900gt scheda straordinaria per il rapporto prezzo\prestazioni e con un overclock mostruoso che non guasta mai...sicuramente sarà un bestseller!!!

Daytona
09-03-2006, 15:40
abbiamo visto lo stesso grafico?

http://www.hwupgrade.it/articoli/1450/db.png

no perchè un 2% di differenza nel rumore (50/54 VS 51/55) fra le top se tu lo definisci stravincere devi avere un udito migliore di superman e daredevil messi insieme

per non parlare poi della 7900gt che è risultata la + rumorosa in maniera "evidentissima", sempre usando i tuoi termini di paragone

a prove da me fatte le x1900XT/XTX sono piu' rumorose delle 7800GTX e quindi sicuramente anche delle 7900GTX

;)
1100000110100000

Leatherscraps
09-03-2006, 15:42
Raga io non so voi ma sono rimasto un po deluso....
le 32 pipe che fine hanno fatto?avevano detto che ci sarebbero state.. e invece.. :mad:

A parte questo la 7900gt me sembra che come qualità prezzo batta tutti!però la considero una scheda inutile per 2 semplici motivi(a meno che uno non debbia cambiare con una scheda datata(<6600gt)

1)con i giochi che usciranno,vedi oblivion e unreal 3.0,non si potrà godere dal massimo del dettaglio con filtri attivati,se devo migliorare solo leggermente tanto vale che mi tengo la mia 6800/7800...

2)non supportano le dx10 per cui alcuni giochi che per la fine dell'anno le avranno sarà un problema e ci sarà da rimettere mano al portafoglio(nel giro di un anno) per almeno vedere gli effetti delle nuove dx10


Voi che ne pensate? :D

bartolino3200
09-03-2006, 15:42
Ordinata adesso :)

:incazzed:

Foglia Morta
09-03-2006, 15:43
veramente ottimo l'overclock della GT , peccato per i driver stravecchi che a malapena conoscono le schede

WarDuck
09-03-2006, 15:44
Sui consumi niente da dire, ottimo lavoro di nVidia, dovuto soprattutto ai 90nm in quanto a livello di archiettura non cambia molto.

Sulle prestazioni alla fine si può declamare un pareggio, ma ATi con i filtri è ancora una spanna sopra.

Credo ad ogni modo che come si sta verificando in questi ultimi tempi, alla fine la scelta ricadrà più sulla simpatia dell'una o dell'altra casa che in realtà per le pure prestazioni. Senza tenere conto dei consumi naturalmente, in quest'ultimo caso vince nVidia! Idem dicasi per i prezzi molto aggressivi, ma cmq ATi ha già dichiarato di voler abbassare i prezzi delle proprie schede, quindi dopo questa 7900 bisognerà vedere meglio a che livelli si attestano.

Personalmente preferirei spendere anche 20-30€ in più ma avere una scheda che con i filtri al massimo si comporti meglio oltre naturalmente ad essere sulla carta più longeva con i titoli futuri.

La 7900GT è molto appetitosa, spero nella X1800GTO.

rutto
09-03-2006, 15:45
cioe' questo lo chiamate pareggio?!
http://www.hwupgrade.it/articoli/skvideo/1450/14.html

a me sembra una bella batosta punto e basta!

stiam assistendo a dei bei ribaltoni ultimamente! :)

Daytona
09-03-2006, 15:47
In germania si trovanbo le 7900GT a 350€ e le X1800XT a 340€

7900GTX a 580€ e X1900XT a 470€

...meditate gente ...meditate...

;)
1100000110100000

Dr House
09-03-2006, 15:48
Per il DRhouse, e aspetta che ti metta le recensioni di altri siti.
Stranamente, il divario cresce sempre a favore di nVidia, chissà come mai...

Poi magari se ci postassi anche i consumi...

io non ti ho contestato il discorso dei consumi ma della rumorosità, non divagare su cose di cui non ho parlato

anche il discorso della rumorosità allora se qualcuno qui della redazione è di parte, secondo te, non credo che sia una colpa mia

Foglia Morta
09-03-2006, 15:49
In germania si trovanbo le 7900GT a 350€ e le X1800XT a 340€

7900GTX a 580€ e X1900XT a 470€

...meditate gente ...meditate...

;)
1100000110100000
aspetta la 7900GT ha 256 MB va confrontata con la X1800XT 256 MB e questa costa 306 euro :)

Edit:comunque sono prezzi di lancio per chi ha talmente fretta di comprare che quasi non guarda le recensioni :D , nei prossimi giorni scommetto che caleranno molto ( soprattutto in germania ) , imho ad aprile/maggio arriverà R580 a 80nm e GDDR4 con costi ancora inferiori e potremo godere di un altro po di concorrenza :D

bartolino3200
09-03-2006, 15:50
cioe' questo lo chiamate pareggio?!
http://www.hwupgrade.it/articoli/skvideo/1450/14.html

a me sembra una bella batosta punto e basta!

stiam assistendo a dei bei ribaltoni ultimamente! :)

Sulle prestazioni come ha detto chiaramente il caro WarDuck è effettivamente così.
Quoto in pieno tutto il suo ragionamento.
Se si preferiscono filtri un po' più elevati allora ATI, se invece si bada alla velocità bruta e ai consumi e rumorosità ridotti, benvenga nVidia.
Nel mio caso ad esempio nVidia a tutta forza, consumik e rumore sono a mio avviso dei parametri fondamentali nell' acquisto di un prodotto HW.
NOn c' è progresso se si continuano a far salire i consumi elettrici al salire delle prestazioni.
In questo ATI sta fallendo in modo plateale.

Dr House
09-03-2006, 15:52
cioe' questo lo chiamate pareggio?!
http://www.hwupgrade.it/articoli/skvideo/1450/14.html

a me sembra una bella batosta punto e basta!

stiam assistendo a dei bei ribaltoni ultimamente! :)

ecco un altro discorso che volevo approfondire

uno con queste sk ci gioca con attivato qualsiasi tipo di dettaglio spero

allora giustamente proprio pareggio non lo chiamerei, visto che la 7900gtx sta dietro, di poco, ma perfino in splinter cell, notoriamente gioco favorevole ad nvidia


lontano dal voler fare il fanboy, ma i fatti mi sembrano questi

bartolino3200
09-03-2006, 15:53
io non ti ho contestato il discorso dei consumi mai della rumorosità, non divagare su cose di cui non ho parlato

anche il discorso della rumorosità allora se qualcuno qui della redazione è di parte secondo te non credo che sia una colpa mia

Daytona ha chiaramente detto e confermato che quel grafico riportato da te della rece di oggi è ben lontano dalla realtà.
Ancora una volta si scorgono motivi che lasciano riflettere sulla faziosità delle recensioni. E tutto a mio malincuore come anche di molti altri.
CIAO!!!

pandyno
09-03-2006, 15:55
Ciao Raffaele, nella lista dei driver usati, leggo 6.1beta, problemi di tempo? :)

bartolino3200
09-03-2006, 15:55
In germania si trovanbo le 7900GT a 350€

;)
1100000110100000

Veramente io in Italia ti posso già linkare shop che mettono la 7900GT a 340 euro con tre giochi in bundle.
Questo significa che un bundle più modesto lo si potrà trovare a 300 euro tondi tondi nel giro di poco.
E so già chi potrà dare le 7900GT a 300 euro...
Non mi riempite di PVT fino a quando non avrò la certezza non rispondo a nessuno.
:p

Leatherscraps
09-03-2006, 15:57
ecco un altro discorso che volevo approfondire

uno con queste sk ci gioca con attivato qualsiasi tipo di dettaglio spero

allora giustamente proprio pareggio non lo chiamerei, visto che la 7900gtx sta dietro, di poco, ma perfino in splinter cell, notoriamente gioco favorevole ad nvidia


lontano dal voler fare il fanboy, ma i fatti mi sembrano questi

mi sa che con oblivion e company anche queste schede non ce la faranno a tenere tutto al max

una x1900xtx 512mb faceva girare il gioco a 25fps con tutto attivato a 1200x780 :eek:


cmq sono d'accordo Ati è in vantaggio,questa ultima ha veramente cambiato qualcosa,nvidia ha alzato le freq e basta

gianni1879
09-03-2006, 15:58
senza ombra di dubbio.

ma bisogna anche dire che la 7900gt è una ottima scheda, migliore della 7800gtx 256 e costa "solo" 330 euro!
la vera protagonista di questa recensione è la 7900gt, non la gtx... imho
sono pienamente d'accordo con te la vera vincitrice e' la 7900gt notevoli le doti di oc mentre per la gtx mi aspettavo qualcosina in piu' evidentemente era molto tirata di freq. Vedremo quanto costeranno le 7900gt se saranno veramente sui 300euro sarebbe un'ottima cosa. E cmq la sfida dei prezzi e' la migliore delle cose :)

ErminioF
09-03-2006, 15:58
Altra cosa stavolta alla redazione, perchè non cominciate a proporre i test SLI e CF in modo totalmente separato da quelli a singola scheda?
Non si capisce una mazza, troppa confusione e numerini da leggere. Più che grafici sembrano mosaici.
Quoto...e direi anche di abolire nei grafici dell'overclock le altre schede...usare solo in versione default e overclocked in modo da capire il divario (anche perchè non ha senso mettere le schede della rece nelle 2 "versioni" mentre le avversarie solo "lisce")

2)non supportano le dx10 per cui alcuni giochi che per la fine dell'anno le avranno sarà un problema e ci sarà da rimettere mano al portafoglio(nel giro di un anno) per almeno vedere gli effetti delle nuove dx10

Beh questo vale per tutte le schede in commercio...o conosci qualche gpu dx10 sul mercato? :asd:

Leatherscraps
09-03-2006, 16:00
Quoto...e direi anche di abolire nei grafici dell'overclock le altre schede...usare solo in versione default e overclocked in modo da capire il divario (anche perchè non ha senso mettere le schede della rece nelle 2 "versioni" mentre le avversarie solo "lisce")

Beh questo vale per tutte le schede in commercio...o conosci qualche gpu dx10 sul mercato? :asd:

no nel senso che conviene aspettare fine anno perchè c'è gia qualcosa che bolle in pentola per quanto rigaurda le schede video..

scusa se mi ero espresso male ;)

MaerliN
09-03-2006, 16:00
Indipendentemente dal fanboyismo latente che si legge in queste pagine, sono contento di leggere una diminuzione dei consumi grazie ai 90nm. :) Certo, l'architettura è rimasta la stessa e ha subito solo un aumento di frequenze. Però la possiamo chiamare minestra riscaldata "solo" in quel campo! Da nVidia mi sarei aspettato una 7900GTX ultrapompatissima per ammazzare l'ultimo gioielli ATi (che va veramente ma veramente benissimo), e invece vedo lanciare una scheda di fascia alta che consuma meno e va un pelino di più della precedente (e costa un pochino meno, anche se ATi ha già risolto). :)

Che dire, non sono nè contentissimo nè delusissimo, diciamo medio. ;)

Dr House
09-03-2006, 16:00
mi sa che con oblivion e company anche queste schede non ce la faranno a tenere tutto al max

una x1900xtx 512mb faceva girare il gioco a 25fps con tutto attivato a 1200x780 :eek:


spero sia un problema di driver o demo perchè sarebbe assurdo :D

bartolino3200
09-03-2006, 16:00
Beh questo vale per tutte le schede in commercio...o conosci qualche gpu dx10 sul mercato? :asd:

Esatto. :mc: :asd:

Murphy
09-03-2006, 16:01
Secondo me sono allineati come prodotti!

Uno vale l'altro non c'è un vero vincente e neanche perdente!

Il costo d'acquisto farà la differenza!

Ati ha dalla sua AA+HDR e miglior filtri(su queste vga si ci gioca con i filtri, potenza bruta senza filtri non me ne faccio niente)!

Come rumore sono simili(almeno dalla rece) e come consumi siamo la(non parlo del CF vs SLI dove ati perde)!



Quando una vga consumerà 50w in idle e 100w sottosforzo questo è progresso! Quando invece una ne fa 230 e l'altra 260 w non è progresso!

Ciao

HyperText
09-03-2006, 16:02
Guarda che 230W è il consumo complessivo dell'intero sistema!

Leatherscraps
09-03-2006, 16:02
Esatto. :mc: :asd:

se preferisci,o se ti puoi permettere di prendere una scheda che dovrai cambiare nel giro di 1 anno... fallo!
lo farei anche io se potessi :cry:

Zannawhite
09-03-2006, 16:04
Ragazzi la vera cosa che si apprende è la seguente:

Ati e nVidia vanno via di apri passo e in "accordo"

7800 Vs. 1800 :read:
7900 Vs. 1900 :read:

almeno cambaite le sigle :muro:

a questo giro nVidia fà il giochino che ha fatto con la prima 7800
Prestazioni ridote la minimo per aspettare la mossa di Ati, poi successivamente
una realese con le vere prestazioni.

Ricordiamoci che il processo produttivo è passato da 0.11micron a 0.09micron

http://img479.imageshack.us/img479/906/evil11qs.gif

Adesso aspetteremo Ati :doh:

Sono rimasto invece impressionato per il costo della 7900 GT e soprattutto per i consumi. Avete notato il dissipatore :eek:

xxxyyy
09-03-2006, 16:04
Ma ce l'ha il supporto all'HDCP... altrimenti che me ne faccio della decodifica dell' H264?

Murphy
09-03-2006, 16:06
Guarda che 230W è il consumo complessivo dell'intero sistema!

Ti riferisci a me?

cmq lo so che si riferisce a tutto il sistema( mi sono espresso male nel post di prima)!

Infatti dico che si può definire processo quando consumerà veramente poco e non solo una trentina di watt in meno!

Ultimamente tra cpu e vga bisogna avere un buon 500w per alimentare tutto!

L' Enel ringrazia! :D

ciao

Leatherscraps
09-03-2006, 16:07
RAGAZZI bando alle ciance!


Sul sito della ASUS c'è una versione particolare della 7900gt la TOP edition

512mb e Freq 545/1450 :eek: :eek: :eek:

La voglioooo!!!!!!!!!!!!!!!!

Tetsujin
09-03-2006, 16:07
i test fatti con HL2 Lost Coast AA4x AF8x avevano anche l'HDR attivo oppure no?

Credo sia importante saperlo :)

OSS2
09-03-2006, 16:07
Lo Facciamo il test sulla qualità video?
AVIVO vs PUREVIDEO
Si guardano sempre le prestazioni e mai la qualita dell'immagine!

Foglia Morta
09-03-2006, 16:09
Lo Facciamo il test sulla qualità video?
AVIVO vs PUREVIDEO
Si guardano sempre le prestazioni e mai la qualita dell'immagine!
è stato fatto a gennaio...

Dr House
09-03-2006, 16:10
Lo Facciamo il test sulla qualità video?
AVIVO vs PUREVIDEO
Si guardano sempre le prestazioni e mai la qualita dell'immagine!

http://www.hwupgrade.it/articoli/skvideo/1419/index.html

belin
09-03-2006, 16:10
Ciao Raffaele, nella lista dei driver usati, leggo 6.1beta, problemi di tempo? :)
...quoto, mi ha incuriosito questa cosa. comunque ottima recensione, molto completa...dev'essere stato un bel sbattimento!

...dopo aver letto tutto (ma ci sono alcuni che hanno postato commenti dopo 5/10 minuti, com'è possibile?!), la mia opinione: G71 gpu ottima a metà, le sue dimensioni ed il numero di transistor sono ottimi, i suoi difetti (ereditati da G70) sono sempre gli stessi. Le 7900 alla fine si sono rivelate delle 7800 overcloccate, il capitolo finale di una fortunata serie di vga. Come prestazioni poco è cambiato: coi filtri R580 rimane in testa...e sfido chiunque a non attivarli con vga così! la vera battaglia si farà sui prezzi...molto buoni quelli delle 7900GTX, ottimi quelli delle 7900GT; se le X1900 e le X1800 caleranno alle stesse cifre sarà molto dura non preferire ATi.

...ciao!

ps: è stata annunciata poco fa ufficialmente la X1800GTO

OverClocK79®
09-03-2006, 16:10
cvd era auspicabile fosse a 24pipe e non a 32 come si vociferava
troppa differenza di prestazioni e costi......
e soprattutto le prime foto davano un die troppo piccolo per essere a 32

che dire....
buona risposta alla 1900XTX :)
salvo bench le schede si equivalgono....

sostanzialmente abbiamo una 7800GTX 512 Ultra
concordo con Belin, alcuni difetti della "vecchia" 7800 sono rimasti

BYEZZZZZZZZZZZ

DjLode
09-03-2006, 16:16
alcuni difetti della "vecchia" 7800 sono rimasti


Non alcuni. Purtroppo tutti...

leoneazzurro
09-03-2006, 16:17
è stato fatto a gennaio...

Sono state introdotte migliorie e nuove feature nel Purevideo da allora (decodifica H264, per esempio). Quindi, come detto da Raffaele nell'articolo, si dovrà rieseguire il confronto, non fatto ora per motivi di tempo.

Foglia Morta
09-03-2006, 16:18
Sono state introdotte migliorie e nuove feature nel Purevideo da allora (decodifica H264, per esempio). Quindi, come detto da Raffaele nell'articolo, si dovrà rieseguire il confronto, non fatto ora per motivi di tempo.
si le leggo le recensioni :)

leoneazzurro
09-03-2006, 16:23
Sembrava steste contraddicendo OSS2, evidentemente stava chiedendo un nuovo test. :D

Raven
09-03-2006, 16:24
Ottima rece, as usual! ;)

Ati sempre davanti, specie in ottica futura (HDR+AA e maggior velocità coi filtri)... :)

ps: chi cerca silenziosità e bassi consumi solitamente non è un "enthusiast user", ma va su schede di ben altra fascia... chi compra queste schede vuole la massima potenza/velocità/qualità...

richie_kotzen
09-03-2006, 16:25
tutto qui? e il supporto per HDR a AA contemporaneamente? speravo cha almeno questo difetto lo risolvessero, con le Radeon X1000 non c'è questa limitazione

Dante89
09-03-2006, 16:25
Non per fare lo sborono ma la disponibilità è realmente immediata, ho ordinato la gt pochi 30min fà, e il corriere l'hà già ritirata ed è in viaggio:)Edz. 3 giochi in bundle Pov 256mb 344€ Italia :)

mantes
09-03-2006, 16:25
Nelle configurazioni a doppia scheda è vero che i consumi delle soluzioni Ati sono molto più elevati,in questo caso il fattore consumo potrebbe far pendere la candela dalla parte Nvidia (ma diciamocelo...non credo che un utente che si va a configurare un pc con sli o crossfire,abbia come priorità quella del basso consumo...)
Però nelle soluzioni a singola scheda (che mi sembra quella adottata dalla stragrande maggioranza degli utenti,anche propio per un fatto di consumi) il divario non è così netto...la 7900gtx si avvantaggia in full load,la 1900xtx invece in idle...se guardiamo bene,c'è sempre un leggero vantaggio per Nvidia,ma è veramente leggero,non certo "drasticamente inferiore".Il vero divario sta nella 7900gt (che però ha 256mb di ram in meno..te credo che consumi anche meno...)

Come è veramente impercettibile il divario che c'è in fatto di rumorosità (sono assordanti tutte e due le soluzioni,se si vuole un pc mediamente sopportabile quando si sta facendo qualcos'altro che non sia giocare si deve per forza mettere un dissi comprato a parte).

Quindi per quanto riguarda le schede top io punterei su Ati a sto giro,perchè offre vantaggi tecnologici maggiori e si comporta meglio con hdr, shader complessi come quelli di fear,e soft shadows,oltre ad avere un AA più efficente e la possibilità di abbinarlo all'hdr :)

Dante89
09-03-2006, 16:26
Inoltre la gt è una delle prime vga dual link, che nel caso dei monitor dell, come il mio è assolutamente necessaria :)

Raven
09-03-2006, 16:26
Per il DRhouse, e aspetta che ti metta le recensioni di altri siti.
Stranamente, il divario cresce sempre a favore di nVidia, chissà come mai...


Se hai accuse da fare, parla più chiaramente...

pirella
09-03-2006, 16:29
come me speravo...

quasi uguale alla rivale ati...

cmq adesso si comincia a ragionare per fare uno SLI "economico" e potente...

PS: ma perchè benchate ancora con Farcry???
come si fa a paragonare una ati ad una nvidia su questo gioco, dove anche una ati 8500 va meglio di una 7900gtx :p

yossarian
09-03-2006, 16:30
al di là del fantaHW che si fa sempre in attesa dell'uscita di una nuova vga (32 pipeline, più alu per pipe, ecc), secondo me NV ha fatto la cosa più semplice e logica che potesse fare: aveva già un'architettura sm3.0 e entro la fine dell'anno dovrebbero debuttare le nuove sm4.0; quindi non aveva molto senso investire troppo nel progettare o revisionare un chip la cui vita media sarebbe stata piuttosto breve.
A prescindere dal fatto che già i dati su RSX dell'E3 dello scorso anno avevano lasciato intendere che il chip a 90 nm sarebbe stato uno shrink del G70 (il dato sulle Gflops era fin troppo chiaro e si riferiva ad un G70 a 550 MHz), cosa che escludeva la possibilità di avere altre alu per pipeline, anche il ricorso a 32 pipeline (che non sarebbero state possibili con le frequenze di cui si parlava, ossia 700-750 MHz, ma neppure con le attuali 650 ma si sarebbe dovuti scendere ben al di sotto dei 600 e forse, addirittura dei 550 MHz), avrebbe aumentato i costi di produzione e i consumi e avrebbe rischiato di "squilibrare" l'architettura del chip con conseguente necessità di reingegnerizzazione di alcune sue parti.

Detto questo, ci sarebbero da fare alcune brevi considerazioni:
è evidente che il calo alle alte risoluzioni e/o con i filtri attivi, non è imputabile, almeno per le 7800, alle limitazioni in banda; questo eprchè il rapporto banda/fillrate per la 7900 GTX è decisamente peggiore rispetto a quello delle due verioni (256 e 512 MB) della 7800 e, in assoluto, la bandwidth della 7900 GTX è inferiore a quella della 7800 512 MB. Ciò significa che il calo è dovuto alla non elevatissima efficienza del chip a livello computazionale, che si acuisce all'aumentare della complessità dei calcoli, facendo crescere il divario rispetto a R5x0 che ha una maggior efficienza complessiva nella gestione delle operazioni di texture fetch, nel trasferimento dei dati e nelle operazioni di pixel shading. Questa osservazione, ne porta un'altra: ossia, la totale inutilità della ram da 1,1 ns montate sulla 7800 GTX da 512 MB; è evidente, infatti, che le ram delle 7800 erano sovradimensionate e l'utilizzo di ram così veloci era dovuto a mere questioni di marketing piuttosto che ad una reale necessità.

Detto ciò, da parte mia non c'è stata alcuna delusione; mi aspettavo esattamente un chip piuttosto veloce nelle elaborazioni semplici o di media difficoltà, che però era destinato a perdere il confronto con le elaborazioni più pesanti (HDR e filtri), oltre che con alcune feature tipiche dello sm3.0 (db soprattutto, con cui la distanza è abissale).
Peccato che la qualità dei filtri sia rimasta la stessa (in questo ATi continua ad essere superiore, rendendo fruibile un AA6x e un AF di tipo full, con perdite prestazionali minime rispetto alle versioni 4x e AF di tipo brilinear).

Molto buona come rapporto prezzo/prestazioni la GT, che ha anche consumi piuttosto contenuti (anche perchè ha solo 256 MB di ram e lavora a tensioni inferiori)

bartolino3200
09-03-2006, 16:33
se preferisci,o se ti puoi permettere di prendere una scheda che dovrai cambiare nel giro di 1 anno... fallo!
lo farei anche io se potessi :cry:

Nel mio caso sarebbe da folli. Ho preso una 7800GT a Gennaio :grrr:
La prossima scheda video sarà una DX10 bella matura con giochi in abbondanza che li supportino.
La butto lì, più o meno fra due anni se non di più...

Raven
09-03-2006, 16:34
al di là del fantaHW che si fa sempre in attesa dell'uscita di una nuova vga (32 pipeline, più alu per pipe, ecc), secondo me NV ha fatto la cosa più semplice e logica che potesse fare: aveva già un'architettura sm3.0 e entro la fine dell'anno dovrebbero debuttare le nuove sm4.0; quindi non aveva molto senso investire troppo nel progettare o revisionare un chip la cui vita media sarebbe stata piuttosto breve.
A prescindere dal fatto che già i dati su RSX dell'E3 dello scorso anno avevano lasciato intendere che il chip a 90 nm sarebbe stato uno shrink del G70 (il dato sulle Gflops era fin troppo chiaro e si riferiva ad un G70 a 550 MHz), cosa che escludeva la possibilità di avere altre alu per pipeline, anche il ricorso a 32 pipeline (che non sarebbero state possibili con le frequenze di cui si parlava, ossia 700-750 MHz, ma neppure con le attuali 650 ma si sarebbe dovuti scendere ben al di sotto dei 600 e forse, addirittura dei 550 MHz), avrebbe aumentato i costi di produzione e i consumi e avrebbe rischiato di "squilibrare" l'architettura del chip con conseguente necessità di reingegnerizzazione di alcune sue parti.

Detto questo, ci sarebbero da fare alcune brevi considerazioni:
è evidente che il calo alle alte risoluzioni e/o con i filtri attivi, non è imputabile, almeno per le 7800, alle limitazioni in banda; questo eprchè il rapporto banda/fillrate per la 7900 GTX è decisamente peggiore rispetto a quello delle due verioni (256 e 512 MB) della 7800 e, in assoluto, la bandwidth della 7900 GTX è inferiore a quella della 7800 512 MB. Ciò significa che il calo è dovuto alla non elevatissima efficienza del chip a livello computazionale, che si acuisce all'aumentare della complessità dei calcoli, facendo crescere il divario rispetto a R5x0 che ha una maggior efficienza complessiva nella gestione delle operazioni di texture fetch, nel trasferimento dei dati e nelle operazioni di pixel shading. Questa osservazione, ne porta un'altra: ossia, la totale inutilità della ram da 1,1 ns montate sulla 7800 GTX da 512 MB; è evidente, infatti, che le ram delle 7800 erano sovradimensionate e l'utilizzo di ram così veloci era dovuto a mere questioni di marketing piuttosto che ad una reale necessità.

Detto ciò, da parte mia non c'è stata alcuna delusione; mi aspettavo esattamente un chip piuttosto veloce nelle elaborazioni semplici o di media difficoltà, che però era destinato a perdere il confronto con le elaborazioni più pesanti (HDR e filtri), oltre che con alcune feature tipiche dello sm3.0 (db soprattutto, con cui la distanza è abissale).
Peccato che la qualità dei filtri sia rimasta la stessa (in questo ATi continua ad essere superiore, rendendo fruibile un AA6x e un AF di tipo full, con perdite prestazionali minime rispetto alle versioni 4x e AF di tipo brilinear).

Molto buona come rapporto prezzo/prestazioni la GT, che ha anche consumi piuttosto contenuti (anche perchè ha solo 256 MB di ram e lavora a tensioni inferiori)


Commento esemplare come sempre! :D

Concordo al 100% con le tue osservazioni... ;)

Murphy
09-03-2006, 16:36
La prossima scheda video sarà una DX10 bella matura con giochi in abbondanza che li supportino.
La butto lì, più o meno fra due anni se non di più...

Di che marca? :D

ciao

bartolino3200
09-03-2006, 16:38
al di là del fantaHW che si fa sempre in attesa dell'uscita di una nuova vga (32 pipeline, più alu per pipe, ecc), secondo me NV ha fatto la cosa più semplice e logica che potesse fare: aveva già un'architettura sm3.0 e entro la fine dell'anno dovrebbero debuttare le nuove sm4.0; quindi non aveva molto senso investire troppo nel progettare o revisionare un chip la cui vita media sarebbe stata piuttosto breve.
A prescindere dal fatto che già i dati su RSX dell'E3 dello scorso anno avevano lasciato intendere che il chip a 90 nm sarebbe stato uno shrink del G70 (il dato sulle Gflops era fin troppo chiaro e si riferiva ad un G70 a 550 MHz), cosa che escludeva la possibilità di avere altre alu per pipeline, anche il ricorso a 32 pipeline (che non sarebbero state possibili con le frequenze di cui si parlava, ossia 700-750 MHz, ma neppure con le attuali 650 ma si sarebbe dovuti scendere ben al di sotto dei 600 e forse, addirittura dei 550 MHz), avrebbe aumentato i costi di produzione e i consumi e avrebbe rischiato di "squilibrare" l'architettura del chip con conseguente necessità di reingegnerizzazione di alcune sue parti.



Ti quoto e aggiungo che nVidia è riuscita a rispettare pienamente la sua roadmap senza lacune.
ATI ha faticato con R520 rendenolo in poco un chip sorpassato dal suo stesso R580, con non poca stizza da parte dei fedelissimi ATI che non avevano esitato ad acquistare R520.
Ma alla fine tutto è bene quel che finisce bene.
R580 esiste e non ha deluso nessuno, tranne che per i consumi, al contrario di R520, che seppur buono è stato alla fine il chip ATI meno longevo di tutti.

yossarian
09-03-2006, 16:40
Commento esemplare come sempre! :D

Concordo al 100% con le tue osservazioni... ;)

grazie Raven :)

aggiungo solo che, trattandosi di un semplice shrink, i circa 20 mln di transistor in meno sono dovuti in parte (minima) ad un'operazione di reingegnerizzazione delle rop's e dei transistor di giunzione e in parte (quella maggiore) alla riduzione della lunghezza delle linee di trasmissione e di controllo

Foglia Morta
09-03-2006, 16:41
Detto questo, ci sarebbero da fare alcune brevi considerazioni:
è evidente che il calo alle alte risoluzioni e/o con i filtri attivi, non è imputabile, almeno per le 7800, alle limitazioni in banda; questo eprchè il rapporto banda/fillrate per la 7900 GTX è decisamente peggiore rispetto a quello delle due verioni (256 e 512 MB) della 7800 e, in assoluto, la bandwidth della 7900 GTX è inferiore a quella della 7800 512 MB. Ciò significa che il calo è dovuto alla non elevatissima efficienza del chip a livello computazionale, che si acuisce all'aumentare della complessità dei calcoli, facendo crescere il divario rispetto a R5x0 che ha una maggior efficienza complessiva nella gestione delle operazioni di texture fetch, nel trasferimento dei dati e nelle operazioni di pixel shading. Questa osservazione, ne porta un'altra: ossia, la totale inutilità della ram da 1,1 ns montate sulla 7800 GTX da 512 MB; è evidente, infatti, che le ram delle 7800 erano sovradimensionate e l'utilizzo di ram così veloci era dovuto a mere questioni di marketing piuttosto che ad una reale necessità.

Non per fare lo sborone ma mentre leggevo la rece l'avevo pensato anche io :D , infatti prima mi aspettavo cali ancora più evidenti con i filtri , invece con FEAR riesce a migliorare un pochino rispetto alla 550/1700.

Domanda: sai dove hanno risparmiato quei 24 mln di transistor ? In maniera uniforme un po su ogni parte del chip o in qualcuna particolarmente ?

Edit: ecco grazie mi hai già risposto :D

May81
09-03-2006, 16:44
A me il risultato sembra molto chiaro:

- la scheda è a parimerito rispetto la x1900XTX (per me differenze del 10% non sono percepibili giocando)

- le due concorrenti partono alla pari come processo produttivo (90nm entranbe)

- la scheda nvidia consuma circa la metà, ha una superficie del die di circa la metà, ed un numero di transistor nettamente inferiore

=> ergo la scheda nvidia è nettamente più efficiente!

Quindi nvidia ha scelto di restare con 24 pipe ed ottenere la parità come prestazioni garantendo diversi vantaggi per gli utenti come il consumo ed il prezzo (o maggiore guadagno per scheda).
Leggendo da anni in questo sito direi che era quello che la maggioranza dei frequentatori di questo forum voleva quindi io do la vittoria netta ad nvidia.

Alla luce di questi risultati è sorprendente notare come nvidia può sulla carta tirare fuori una GPU con 48 pipe ed un consumo simile ad alla x1900XTX. Impressionante direi!

Murphy
09-03-2006, 16:46
- la scheda nvidia consuma circa la metà, ha una superficie del die di circa la metà, ed un numero di transistor nettamente inferiore



Mi dici dove hai visto che consuma la metà?


Non parlo di sli o CF!

ciao

Foglia Morta
09-03-2006, 16:47
ma più che altro May81 , di pipe ne ha 24 o 48 ? se hai acceso la luce cambia la lampadina :D

Daytona
09-03-2006, 16:50
ATI ha faticato con R520 rendenolo in poco un chip sorpassato dal suo stesso R580, con non poca stizza da parte dei fedelissimi ATI che non avevano esitato ad acquistare R520.
Ma alla fine tutto è bene quel che finisce bene.
R580 esiste e non ha deluso nessuno, tranne che per i consumi, al contrario di R520, che seppur buono è stato alla fine il chip ATI meno longevo di tutti.

Meno longevo? non penso ;)

...tieni conto che ATI ha portato le X1800XT allo stesso prezzo delle 7900GT ... ;)

e in alcuni casi ,e.g. FEAR con i filtri, la X1800XT sta davanti :)

L'unica cosa che invidio alla 7900GTX è il dissipatore :p

1100000110100000
:)

bs82
09-03-2006, 16:51
discrezione dell'utente finale nella scelta delle due marche a secondo di quello che usa?

LOL...io se spendo 500 euro ci gioco con i filtri....e qua con i filtri e di degne prestazioni vedo lo la x1900....

che questa estate sarà mia.....sbavvvvv

fede231
09-03-2006, 16:53
qulac'uno le ha già trovate in vendita, la 7900Gt deve essere mia, aspettando le Dx10

Tetsujin
09-03-2006, 16:56
scusatemi, ma continuo a leggere che "ati vince con l'HDR" ..ma ne siamo cosi sicuri?

Direi che ormai il bench dell'HDR senza filtri non ha un valore reale, dato che tutte le ultime vga supportano HDR + AA direi che benchare solo con HDR è come benchare senza filtri... tutti i prossimi giochi supporteranno l'HDR con AA quindi è quello che è importante

l'unico gioco che al momento supporta HDR + AA e AF se non vado errato è Lost Coast (correggetemi se sbaglio) dove mi sembra che vada meglio la 7900 GTX

http://firingsquad.com/hardware/nvidia_geforce_7900_gt_gtx_performance/page9.asp

FranKKy
09-03-2006, 16:56
quindi nn ha hdr + aa...ma in cosa consiste questa tecnologia?non l'ho capito bene me lo potete spiegare?

JOHNNYMETA
09-03-2006, 16:57
Bene per tutte le ottimizzazioni fatte.Addirittura la riduzione di 24 milioni di transistor.
Però non hanno fatto l'ottimizzazione più importante che è quella che invece Ati ha già fatto cioè cambiare il rapporto UPS-TMU.

Dovevano ridurre i transistor riguardanti le TMU e aumentarli per le UPS (aggiungendo unità di questo tipo) perchè usare il rapporto 1:1 è come settare una F1 con pneumatici anteriori e posteriori uguali.Ati questo l'ha capito e sistemato con il suo 3:1 che le da una potenza-efficienza nettamente maggiore quasi dappertutto ma soprattutto nei games più evoluti (FEAR e altri di nuova gen.) e quando si hanno i filtri attivi.

In definitiva queste GPU anche se più compatte e meno affamate di energia sono in ogni caso sbilanciate e inefficienti rispetto alle X1900.

bartolino3200
09-03-2006, 16:58
Se hai accuse da fare, parla più chiaramente...

Accuse no, constatazioni si.
Si proprone al solito un confronto di consumi del sistema totale, ma con schede madri nettamente differenti.
Mi pareva più logico porre in evidenza la differenza di consumi a singola gpu a parità di macchina (tutti i componenti). Poi se proprio non se ne vuole o può fare a meno delle boiate di SLI e CF, allore magari, vista l' impossibilità di usare stesso chipset per SLI e CF, mettere anche il consumo del sistema intero con relative mobo.

Ecco che poi i divari sui consumi energetici fra nVidia e ATI sono molto più netti a favore di nVidia su altri siti altrettanto quotati e competenti.
IMHO la mia non è una accusa di cattiva fede, ma consentimi di puntare il dito contro una tendenza ormai consolidata di creare recensioni dando troppa importanza a sistemi dual VGA (che in pochi fan, si possono permettere e che sono un insulto al risparmio energetico), a scapito dell' utente più diffuso, ossia colui che guarda esclusivamente a sistemi singola VGA.

Il risultato è che i grafici degli score, sono molto confusi e acerbi da digerire.
Troppa carne al fuoco diviene difficilmente gestibile.
Come detto poco prima, a mio avviso tenere i bench in config. doppia VGA separatamente da quelli in singola e magari fare solo una media riepilogativa delle differenze fra doppia e singola gpu, gioverebbe molto alla chiarezza delle recensioni di Raffaele.
Recensioni che sicuramente costano un botto di fatica ma che perdono di efficacia per il modo in cui vengono redatte.
Tutto ovviamente imho.

Tetsujin
09-03-2006, 16:59
quindi nn ha hdr + aa...ma in cosa consiste questa tecnologia?non l'ho capito bene me lo potete spiegare?

come NON ha?

forse ho letto male io...ma questa 7900 puo gestire o no l'HDR+AA?

belin
09-03-2006, 17:01
...ma questa 7900 puo gestire o no l'HDR+AA?
...no.

...ciao!

yossarian
09-03-2006, 17:01
scusatemi, ma continuo a leggere che "ati vince con l'HDR" ..ma ne siamo cosi sicuri?

Direi che ormai il bench dell'HDR senza filtri non ha un valore reale, dato che tutte le ultime vga supportano HDR + AA direi che benchare solo con HDR è come benchare senza filtri... tutti i prossimi giochi supporteranno l'HDR con AA quindi è quello che è importante

l'unico gioco che al momento supporta HDR + AA e AF se non vado errato è Lost Coast (correggetemi se sbaglio) dove mi sembra che vada meglio la 7900 GTX

http://firingsquad.com/hardware/nvidia_geforce_7900_gt_gtx_performance/page9.asp
lost coast non fa uso di hdr con fp16 blending ma utilizza tone mapping immediatamente dopo le operazioni di pixel shading; questo significa che le rop's lavorano a i8 invece che a fp16. Sui chip NV non c'è modo di far eseguire alle rop's operazioni a fp16 e contemporaneamente fare uso di MSAA: una delle due cose esclude l'altra.
L'hdr di lost coast è attivabile anche su R300

Murphy
09-03-2006, 17:01
come NON ha?

forse ho letto male io...ma questa 7900 puo gestire o no l'HDR+AA?

per quanto ho capito solo la serie x1000 può gestire AA + HDR!

SE si attiva l'HDR nelle altre insieme al filtro AA quest'ultimo viene disabilitato!



ciao

Murphy
09-03-2006, 17:02
lost coast non fa uso di hdr con fp16 blending ma utilizza tone mapping immediatamente dopo le operazioni di pixel shading; questo significa che le rop's lavorano a i8 invece che a fp16. Sui chip NV non c'è modo di far eseguire alle rop's operazioni a fp16 e contemporaneamente fare uso di MSAA: una delle due cose esclude l'altra.
L'hdr di lost coast è attivabile anche su R300

:ave: :ave: :ave: :ave: :ave:


Spiegazione moltoooooooooooooooooooooo + tecnica!

ciao

FranKKy
09-03-2006, 17:03
ma a ke serve sto hdr?

leoneazzurro
09-03-2006, 17:03
Dovevano ridurre i transistor riguardanti le TMU e aumentarli per le UPS (aggiungendo unità di questo tipo) perchè usare il rapporto 1:1 è come settare una F1 con pneumatici anteriori e posteriori uguali.Ati questo l'ha capito e sistemato con il suo 3:1 che le da una potenza-efficienza nettamente maggiore quasi dappertutto ma soprattutto nei games più evoluti (FEAR e altri di nuova gen.) e quando si hanno i filtri attivi.



Comunque su questa cosa c'è anche da dire che una unità PS delle 7900 è parecchio differente dalle unità PS delle X1900, quindi non si può fare un raffronto diretto, se non tramite i benchmark di Pixel shading.

bartolino3200
09-03-2006, 17:03
Meno longevo? non penso ;)

...tieni conto che ATI ha portato le X1800XT allo stesso prezzo delle 7900GT ... ;)

e in alcuni casi ,e.g. FEAR con i filtri, la X1800XT sta davanti :)

L'unica cosa che invidio alla 7900GTX è il dissipatore :p

1100000110100000
:)

Meno longevo nel senso che ATI ha proposto un refresh a pochissimo da R520, rendendo X1800, che in molti hanno pagato a prezzo pieno, una gpu di fascia medio/alta dopo poche settimane.
Nei confronti degli acquirenti ciò comporta un certo disappunto. Spendere 600 e passa euro per una X1800XT che dopo due mesi diventa gpu di fascia media...non è proprio bello.

Dark Schneider
09-03-2006, 17:05
Praticamente ha detto yoss..cosa aggiungere? :)

Bella recensione. Le 7900 costituiscono l'ultima e finale evoluzione del NV40.
Vga molto veloce questa 7900, anche se poi a livello di architettura è meno interessante ed efficente rispetto ad R580. Di certo chi fa l'acquisto sicuro ha speso bene i soldi.

La 7900GT è molto molto invitante. Non se ne vedevano da tempo schede video con stesse caratteristiche del fratello maggiore e con solo le frequenze inferiori a questi prezzi.
Ricordo anche con la 6800GT: stavamo sempre a roba di 450 euro. Qui invece un prodotto che in qlc settimana si assesterà a 300 euro. Andranno a ruba. :)

E' un bel segno cmq. Nonostante il duopolio, finalmente si vede una lotta vera sui prezzi tutto a vantaggio dell'utente finale.

D'altro canto penso che questo sia un momento di stallo a livello di prestazioni. Diciamo pure che la gente se ha una scheda abbastanza performante, oggi come oggi ancora di più se la tiene. :) Secondo me vedremo molte meno persone passare da 7800 a 7900.

Un altra cosa che mi fa contento è che questa lotta ai prezzi sta portando sempre più potenza alle fasce inferiori. Molto più velocemente rispetto a qualche anno fa. Quindi schede di fascia media sono sempre più adeguate. :)

Ho visto le prestazioni ad esempio di Radeon X1800GTO e GeForce 7600GT: ottime. Alla faccia di chi si lamenta del bus a 128 bit..la 7600GT è velocissima e le dà di brutto alla 6800GS Pci Express.

Mi sa che tra un anno di questi tempi avremo una fascia media(200-250 euro) con architettura nuova, tecnologicamente più avanzata, con supporto DX10 e con potenza paragonabile ad una X1900XTX e 7900GTX. :)

Inoltre mi sa che i possessori di 7800 fanno meglio a tenersele e sfruttarle come si deve. Rivenderle non sarà di certo un affare. Basta vedere la 7800GTX 256 MB: all'uscita costava 549 euro. La 7900GT 9 mesi dopo di default va un po' più forte e costa al momento 329 euro: 220 euro di differenza. Non so a quanto è vendibile una 7800 quindi. :)

DVD2005
09-03-2006, 17:06
...quoto, mi ha incuriosito questa cosa. comunque ottima recensione, molto completa...dev'essere stato un bel sbattimento!

...dopo aver letto tutto (ma ci sono alcuni che hanno postato commenti dopo 5/10 minuti, com'è possibile?!), la mia opinione: G71 gpu ottima a metà, le sue dimensioni ed il numero di transistor sono ottimi, i suoi difetti (ereditati da G70) sono sempre gli stessi. Le 7900 alla fine si sono rivelate delle 7800 overcloccate, il capitolo finale di una fortunata serie di vga. Come prestazioni poco è cambiato: coi filtri R580 rimane in testa...e sfido chiunque a non attivarli con vga così! la vera battaglia si farà sui prezzi...molto buoni quelli delle 7900GTX, ottimi quelli delle 7900GT; se le X1900 e le X1800 caleranno alle stesse cifre sarà molto dura non preferire ATi.

...ciao!

ps: è stata annunciata poco fa ufficialmente la X1800GTO

direi che la tua opinione è condivisibile ed equilibrata.

Daytona
09-03-2006, 17:06
Meno longevo nel senso che ATI ha proposto un refresh a pochissimo da R520, rendendo X1800, che in molti hanno pagato a prezzo pieno, una gpu di fascia medio/alta dopo poche settimane.
Nei confronti degli acquirenti ciò comporta un certo disappunto. Spendere 600 e passa euro per una X1800XT che dopo due mesi diventa gpu di fascia media...non è proprio bello.

ok concordo :)

1100000110100000
:)

Tetsujin
09-03-2006, 17:06
...no.

...ciao!

ma come....NO????

avevo capito tutto alla rovescia allora....ma allora con Oblivion nessuna 7900gtx potrà utilizzare l'AA insieme all'HDR? :eek:

Aketaton
09-03-2006, 17:08
Che recensione “addomesticata” ragazzi! E’ chiaro che la X1900 è superiore e più adatta per i giochi della nuova generazione, io non spenderei mai tutti quei soldi per una scheda grafica che ancora oggi non riesce a gestire contemporaneamente Antialiasing e High Dynamic Range, altro che minestra riscaldata, nVidia mi hai proprio deluso.

DjLode
09-03-2006, 17:08
ma come....NO????

avevo capito tutto alla rovescia allora....ma allora con Oblivion nessuna 7900gtx potrà utilizzare l'AA insieme all'HDR? :eek:

Secondo me, a giudicare dalla pesantezza annunciata del gioco, nessuna scheda potrà usarli insieme e basta :)

Tetsujin
09-03-2006, 17:08
lost coast non fa uso di hdr con fp16 blending ma utilizza tone mapping immediatamente dopo le operazioni di pixel shading; questo significa che le rop's lavorano a i8 invece che a fp16. Sui chip NV non c'è modo di far eseguire alle rop's operazioni a fp16 e contemporaneamente fare uso di MSAA: una delle due cose esclude l'altra.
L'hdr di lost coast è attivabile anche su R300

ma quindi in questi test di HDR+AA

http://firingsquad.com/hardware/nvidia_geforce_7900_gt_gtx_performance/page9.asp

cosa ci fanno le 7900 se non possono gestire l'AA? :mbe:

scusami ma non ho capito molto della tua spiegazione

bartolino3200
09-03-2006, 17:08
lost coast non fa uso di hdr con fp16 blending ma utilizza tone mapping immediatamente dopo le operazioni di pixel shading; questo significa che le rop's lavorano a i8 invece che a fp16. Sui chip NV non c'è modo di far eseguire alle rop's operazioni a fp16 e contemporaneamente fare uso di MSAA: una delle due cose esclude l'altra.
L'hdr di lost coast è attivabile anche su R300

LOLLL a quanti fps su R300? :asd:
Cmq se non ci fossi bisognerebbe inventarti. Sto imparando un sacco di cose leggendoti.
Non ti montare la testa e magari se ti è possibile chiama "l' amico bravo "fek" del quale si sente molto la mancanza.
Non so più con chi trollare da quando non si fa più vivo :cry:

bs82
09-03-2006, 17:08
allora facciamo un ragionamento...

la scheda da 500 euro l'acquista l'hardcore gamer: giusto?

l'hardcore gamer se ne frege dei costi, consumi e rumorosità.

cerca le maggiori prestazioni e la maggiore qualità video

quali sono le schede che hanno maggiori prestazioni e maggiore qualità guardando i benchmark e dopo aver letto questo link?

http://www.3dcenter.org/artikel/neue_filtertricks/

(tedesco, ma potete usare google per tradurlo)

- per fede231, su bow ci sono le gt a 365 euro....e le gtx a 570..

Tetsujin
09-03-2006, 17:10
Secondo me, a giudicare dalla pesantezza annunciata del gioco, nessuna scheda potrà usarli insieme e basta :)

si, ma non esistera solo Oblivion e altri giochi potranno sfruttare l'HDR + AA senza necessariamente ricorrere a SLI o CF, quindi poterli usare fa sempre comodo

DVD2005
09-03-2006, 17:10
Nel mio caso sarebbe da folli. Ho preso una 7800GT a Gennaio :grrr:
La prossima scheda video sarà una DX10 bella matura con giochi in abbondanza che li supportino.
La butto lì, più o meno fra due anni se non di più...


io dico prima ;)

bjt2
09-03-2006, 17:10
Ottima recensione.

Una constatazione: in alcuni test (non tanto pochi) ho notato che la 7900GTX in SLI, che sulla carta dovrebbe essere molto più potente, va più lenta della 7800 GTX 512 SLI... Problemi di drivers? Ci possiamo aspettare un miglioramento con le uscite dei nuovi drivers??? Io credo e spero di si... Se non sono i drivers, quale può essere un'altra spiegazione?

belin
09-03-2006, 17:11
direi che la tua opinione è condivisibile ed equilibrata.
...grazie, ciao! :)

DjLode
09-03-2006, 17:12
LOLLL a quanti fps su R300? :asd:


L'avevo provato, ovviamente andava piano. Non ricordo se rimaneva sui 30 fps. Più gestibile in Splinter Cell Chaos Theory. Poi l'ho tolto però perchè a volte scattava.

DarKilleR
09-03-2006, 17:12
finalmente una ottima scheda da parte di nVidia....si aspetta l'estate e poi si compra quella che costa meno tra X1800 XT e 7900 GT....

Ottimi veramente i consumi sotto sforzo....peccato per quelli in idle...mi aspettavo un poco meno...

Comunque veramente una ottima scheda e ottimi OC.

bs82
09-03-2006, 17:13
i test per le nvidia con aa e hdr vengono fatti con l'hdr e il SUPERSAMPLING A 1,5x, che è qualitativamente peggiore (degrada le texture) del multisampling oltre ad uccidere la banda del chip video....

belin
09-03-2006, 17:14
ma come....NO????

avevo capito tutto alla rovescia allora....ma allora con Oblivion nessuna 7900gtx potrà utilizzare l'AA insieme all'HDR? :eek:
...NO...chiaro?! :D

G71 (7900) "nasce" da G70 (7800); G70 non può utilizzare HDR+AA ---> G71 si porta dietro questa mancanza.

...ciao!

Tetsujin
09-03-2006, 17:16
...NO...chiaro?! :D

G71 (7900) "nasce" da G70 (7800); G70 non può utilizzare HDR+AA ---> G71 si porta dietro questa mancanza.

...ciao!

Ok :) rispondimi ancora solo piu di la su LC e poi giuro che la pianto :D

jp77
09-03-2006, 17:17
- per fede231, su bow ci sono le gt a 365 euro....e le gtx a 570..

se proprio vuoi fare nomi di shop mettine almeno 2 ;)

da tecno"casa" 7900gt a 344€ e 7900gtx a 537€

leoneazzurro
09-03-2006, 17:20
i test per le nvidia con aa e hdr vengono fatti con l'hdr e il SUPERSAMPLING A 1,5x, che è qualitativamente peggiore (degrada le texture) del multisampling oltre ad uccidere la banda del chip video....

No, i test per Nvidia con AA e HDR sono fatti solo su Half Life 2: Lost Coast, che supporta un tipo di HDR che non usa floating-point blending in precisione FP16.
Questo tipo di HDR può essere attivato anche sulle schede R3X0/R4X0.
L'HDR che non può essere attivato insieme all'AA sulle 7900 è quello che richiede il floating point blending in FP16, come ad esempo quello di Far Cry.
Il supersampling viene utilizzato da Nvidia per la modalità 8x, e molto parzialmente per il TAA nelle altre modalità. Il 4x è sempre multisampling.
Ad ogni modo il supersampling non mi pare abbia le controindicazioni di cui parli, a parte la pesantezza per banda e computazionale, anzi in teoria dovrebbe essere qualitativamente superiore al multisampling.

Vifani
09-03-2006, 17:21
Come mai sono stati usati i 6.1 beta per le Radeon e i 84.17 (che neanche si trovano) per le Geffo? Spero in un errore di battitura.

Tutti i test delle schede non 7900, sono gli stessi che avete letto nella recensione della Radeon X1900. Non e' stato possibile rieseguire tutti i test o anche solo quelli delle Radeon X1900 con i Catalyst 6.2 (quelli disponibili al momento dei test), pero' per curiosita' ho rieseguito alcuni test con i 6.2 e non ho riscontrato differenze. Del resto penso che i 6.1 beta e i 6.2 siano quasi identici.

Per quanto riguarda i test con le schede NVIDIA abbiamo usato i driver che ci ha fornito direttamente NVIDIA. Sono i migliori driver per G71. I test delle altre schede NVIDIA sono sempre gli stessi dell'articolo su R580.

leoneazzurro
09-03-2006, 17:21
Niente link commerciali, per favore.

Dark Schneider
09-03-2006, 17:22
Se ho letto bene tempo fa in Oblivion sarà possibile attivare AA + HDR anche con le 7800 e company.
Quindi può essere che è un HDR alla Lost Coast. Smentitemi se ricordo male.

DenFox
09-03-2006, 17:23
Incredibile ragazzi!!! Ho trovato la 7900GT e 7900GTX rispettivamente a 550/1630 e 665/1630 a 365€ e 569€ della XFX su un sito chiamato B.. :D . Premetto che sono un NVIDIA fanboy. Come già detto da qualcuno, sono daccordo sul fatto che con i filtri le ATi vanno alla grande, ma in fin dei conti l'efficienza delle 7900 è maggiore visto il minor numero di transistor.

Tetsujin
09-03-2006, 17:23
No, i test per Nvidia con AA e HDR sono fatti solo su Half Life 2: Lost Coast, che supporta un tipo di HDR che non usa floating-point blending in precisione FP16.
Questo tipo di HDR può essere attivato anche sulle schede R3X0/R4X0.
L'HDR che non può essere attivato insieme all'AA sulle 7900 è quello che richiede il floating point blending in FP16, come ad esempo quello di Far Cry.
Il supersampling viene utilizzato da Nvidia per la modalità 8x, e molto parzialmente per il TAA nelle altre modalità. Il 4x è sempre multisampling.
Ad ogni modo il supersampling non mi pare abbia le controindicazioni di cui parli, anzi in teoria dovrebbe essere qualitativamente superiore al multisampling.

finalmente ho capito sta cosa di LC :)

Quindi condivido anche io quanto detto finora: ATI vince con HDR+AA (per forza..non ha avversari :D )

Vifani
09-03-2006, 17:25
@Raffaele

Ottima rece Raffaele :)


...ma mi spieghi come fai a dire che la X1900XT/XTX è piu' silenziosa della 7800GTX 256 ?

Le X1900 impostano la turbina al 36% di velocità di rotazione(velocita silenziosa) fino a alla temperatura di 88°, toccata questa temperatura passano al 50% di velocità di rotazione (velocità abbastanza rumorosa).... il fatto è che con la turbina al 36% la temperatura dopo pochi minuti e soprattutto durante un bench arriva subito a 88° portando la turbina al 50% che produce un rumore ben superiore alla 7800GTX che ho avuto modo di ascoltare da un mio amico durante dei bench ;)

1100000110100000
:)

La rumorosita' registrata non tiene conto del fattore di fastidio. Mi spiego: il fonometro mi dice che una scheda fa 55 db, ma questi 55 db possono essere un rumore acuto o un rumore piu' grave e questo incide su quanto e' fastidioso anche se non e' quantificabile con lo strumento a nostra disposizione.

Penso che la differenza sia questa: il rumore della 7800 GTX 512 e' basso e grave e pertanto meno fastidioso.

Comunque a parte la 7900 GT, tutte le altre schede singole non sono fastidiose, anche se tra una e l'altra ci sono delle differenze.

PESCEDIMARZO
09-03-2006, 17:25
ecco un altro discorso che volevo approfondire

uno con queste sk ci gioca con attivato qualsiasi tipo di dettaglio spero

allora giustamente proprio pareggio non lo chiamerei, visto che la 7900gtx sta dietro, di poco, ma perfino in splinter cell, notoriamente gioco favorevole ad nvidia


lontano dal voler fare il fanboy, ma i fatti mi sembrano questi

Quoto la diagnosi del dottore.
Chi compra queste schede lo fa per giocare con la massima qualita' d'immagine, non certo per macinare centinania di frames al secondo a medio dettaglio.

bartolino3200
09-03-2006, 17:25
io dico prima ;)

Certo magari anche prima, ma nella vita ci sono altre spese da affrontare oltre alle GPU ;)
Quella che ho la cambierò solo proprio quando non ne potro fare a meno e considera che non gioco molto, alias è già tanto essermi sbilanciato stavolta nell' acquisto ;)

Vifani
09-03-2006, 17:26
i test fatti con HL2 Lost Coast AA4x AF8x avevano anche l'HDR attivo oppure no?

Credo sia importante saperlo :)

I test eseguiti con Lost Coast hanno sempre l'HDR abilitato.

Tetsujin
09-03-2006, 17:28
I test eseguiti con Lost Coast hanno sempre l'HDR abilitato.

ti ringrazio :)

nel frattempo ho imparato un po di cose su LC che non sapevo

Daytona
09-03-2006, 17:29
La rumorosita' registrata non tiene conto del fattore di fastidio. Mi spiego: il fonometro mi dice che una scheda fa 55 db, ma questi 55 db possono essere un rumore acuto o un rumore piu' grave e questo incide su quanto e' fastidioso anche se non e' quantificabile con lo strumento a nostra disposizione.

Penso che la differenza sia questa: il rumore della 7800 GTX 512 e' basso e grave e pertanto meno fastidioso.

Comunque a parte la 7900 GT, tutte le altre schede singole non sono fastidiose, anche se tra una e l'altra ci sono delle differenze.

Grazie per la delucidazione :)

da ogni mo per me la X1900XT/XTX è piu' fastidiosa della 7800GTX ;)

1100000110100000
:)

Dobermann75
09-03-2006, 17:30
al di là del fantaHW che si fa sempre in attesa dell'uscita di una nuova vga (32 pipeline, più alu per pipe, ecc), secondo me NV ha fatto la cosa più semplice e logica che potesse fare: aveva già un'architettura sm3.0 e entro la fine dell'anno dovrebbero debuttare le nuove sm4.0; quindi non aveva molto senso investire troppo nel progettare o revisionare un chip la cui vita media sarebbe stata piuttosto breve.
A prescindere dal fatto che già i dati su RSX dell'E3 dello scorso anno avevano lasciato intendere che il chip a 90 nm sarebbe stato uno shrink del G70 (il dato sulle Gflops era fin troppo chiaro e si riferiva ad un G70 a 550 MHz), cosa che escludeva la possibilità di avere altre alu per pipeline, anche il ricorso a 32 pipeline (che non sarebbero state possibili con le frequenze di cui si parlava, ossia 700-750 MHz, ma neppure con le attuali 650 ma si sarebbe dovuti scendere ben al di sotto dei 600 e forse, addirittura dei 550 MHz), avrebbe aumentato i costi di produzione e i consumi e avrebbe rischiato di "squilibrare" l'architettura del chip con conseguente necessità di reingegnerizzazione di alcune sue parti.

Detto questo, ci sarebbero da fare alcune brevi considerazioni:
è evidente che il calo alle alte risoluzioni e/o con i filtri attivi, non è imputabile, almeno per le 7800, alle limitazioni in banda; questo eprchè il rapporto banda/fillrate per la 7900 GTX è decisamente peggiore rispetto a quello delle due verioni (256 e 512 MB) della 7800 e, in assoluto, la bandwidth della 7900 GTX è inferiore a quella della 7800 512 MB. Ciò significa che il calo è dovuto alla non elevatissima efficienza del chip a livello computazionale, che si acuisce all'aumentare della complessità dei calcoli, facendo crescere il divario rispetto a R5x0 che ha una maggior efficienza complessiva nella gestione delle operazioni di texture fetch, nel trasferimento dei dati e nelle operazioni di pixel shading. Questa osservazione, ne porta un'altra: ossia, la totale inutilità della ram da 1,1 ns montate sulla 7800 GTX da 512 MB; è evidente, infatti, che le ram delle 7800 erano sovradimensionate e l'utilizzo di ram così veloci era dovuto a mere questioni di marketing piuttosto che ad una reale necessità.

Detto ciò, da parte mia non c'è stata alcuna delusione; mi aspettavo esattamente un chip piuttosto veloce nelle elaborazioni semplici o di media difficoltà, che però era destinato a perdere il confronto con le elaborazioni più pesanti (HDR e filtri), oltre che con alcune feature tipiche dello sm3.0 (db soprattutto, con cui la distanza è abissale).
Peccato che la qualità dei filtri sia rimasta la stessa (in questo ATi continua ad essere superiore, rendendo fruibile un AA6x e un AF di tipo full, con perdite prestazionali minime rispetto alle versioni 4x e AF di tipo brilinear).

Molto buona come rapporto prezzo/prestazioni la GT, che ha anche consumi piuttosto contenuti (anche perchè ha solo 256 MB di ram e lavora a tensioni inferiori)
:mano: Pienamente d'accordo con te.

OvErClOck82
09-03-2006, 17:32
Incredibile ragazzi!!! Ho trovato la 7900GT e 7900GTX rispettivamente a 550/1630 e 665/1630 a 365€ e 569€ della XFX su un sito chiamato B.. :D . Premetto che sono un NVIDIA fanboy. Come già detto da qualcuno, sono daccordo sul fatto che con i filtri le ATi vanno alla grande, ma in fin dei conti l'efficienza delle 7900 è maggiore visto il minor numero di transistor.
non so se è una cosa buona da dire qui :asd:

DenFox
09-03-2006, 17:33
RAGAZZI HO TROVATO LE MEDESIME SCHEDE DELLA XFX A 329€ e 549€ su N... :D . Fantastico non trovate? La 7900GT di default a 550/1630... credo che queste 7900GT diventeranno una leggenda in fatto di overclock.

Vifani
09-03-2006, 17:34
LOLLL a quanti fps su R300? :asd:
Cmq se non ci fossi bisognerebbe inventarti. Sto imparando un sacco di cose leggendoti.
Non ti montare la testa e magari se ti è possibile chiama "l' amico bravo "fek" del quale si sente molto la mancanza.
Non so più con chi trollare da quando non si fa più vivo :cry:

Su R300 male non va mio caro. L'ho detto piu' volte: facciamo scemare il discorso che per giocare con il PC bisogna per forza spendere cifre folli ogni anno perche' e' assolutamente falso. I giochi per PC sono scalabili: abbassi la risoluzioni, cambi qualche dettaglio e vedrai che con un R300 (ma anche altri prodotti) oggi giochi a tutto, anche a Lost Coast con HDR abilitato.

Giocare non vuol dire volere a tutti i costri sempre e comunque il massimo dettaglio. Io posso ridurre un pochino la risoluzione e abilitare l'HDR perche' preferisco avere l'illuminazione piu' realistica anche se l'immagine e' un po meno dettagliata.

Vifani
09-03-2006, 17:35
Accuse no, constatazioni si.
Si proprone al solito un confronto di consumi del sistema totale, ma con schede madri nettamente differenti.
Mi pareva più logico porre in evidenza la differenza di consumi a singola gpu a parità di macchina (tutti i componenti). Poi se proprio non se ne vuole o può fare a meno delle boiate di SLI e CF, allore magari, vista l' impossibilità di usare stesso chipset per SLI e CF, mettere anche il consumo del sistema intero con relative mobo.

Ecco che poi i divari sui consumi energetici fra nVidia e ATI sono molto più netti a favore di nVidia su altri siti altrettanto quotati e competenti.
IMHO la mia non è una accusa di cattiva fede, ma consentimi di puntare il dito contro una tendenza ormai consolidata di creare recensioni dando troppa importanza a sistemi dual VGA (che in pochi fan, si possono permettere e che sono un insulto al risparmio energetico), a scapito dell' utente più diffuso, ossia colui che guarda esclusivamente a sistemi singola VGA.

Il risultato è che i grafici degli score, sono molto confusi e acerbi da digerire.
Troppa carne al fuoco diviene difficilmente gestibile.
Come detto poco prima, a mio avviso tenere i bench in config. doppia VGA separatamente da quelli in singola e magari fare solo una media riepilogativa delle differenze fra doppia e singola gpu, gioverebbe molto alla chiarezza delle recensioni di Raffaele.
Recensioni che sicuramente costano un botto di fatica ma che perdono di efficacia per il modo in cui vengono redatte.
Tutto ovviamente imho.

Tutti i test delle schede singole oltre che chiaramente quelli SLI sono eseguiti sulla piattaforma NFORCE4. La piattaforma CrossFire e' usata solo per i test CrossFire. Tutti gli altri risultati sono, quindi, perfettamente confrontabili.


Riguardo i grafici degli score hai ragione: alla fine sono saltate fuori forse troppe voci, ma le alternative sarebbero state due:

1) Non pubblicare tutti quei test SLI e CF
2) Pubblicarli in grafici e parte e in pagine a parte

Nel primo caso avresti avuto meno dati ed e' un vero peccato.
Nel secondo caso avresti avuto il doppio delle pagine dedicate ai benchmark passando da 20 a 26 pagine di recensione il che e' una via praticabile, ma comunque non mi e' venuta in mente perche' il tempo da dedicare ad ogni articolo e' limitato e ci sono scelte da prendere velocemente. Al momento vi scrivo dal Cebit e l'articolo e' stato chiuso due giorni fa.

DenFox
09-03-2006, 17:35
OvErClOck82 mi sono permesso di dirlo in quanto le mie affermazioni sono del tutto MODERATE :) .

belin
09-03-2006, 17:36
Ok :) rispondimi ancora solo piu di la su LC e poi giuro che la pianto :D
...ti ho risposto nell'altro thread, ma vedo che ti hanno già abbondantemente chiarito anche qui! :)

...ciao!

Dark Schneider
09-03-2006, 17:36
finalmente ho capito sta cosa di LC :)

Quindi condivido anche io quanto detto finora: ATI vince con HDR+AA (per forza..non ha avversari :D )

Praticamente, le X1000 possono fare HDR che usa floating point blending con precisione FP16 + AA. E possono fare anche l'HDR + AA di Lost Coast.
Le GeForce 6800-7800-7900 possono fare HDR che usa floating point blending con precisione FP16, senza AA. E possono fare l'HDR + AA di Lost Coast.
Le X800 invece possono solo fare l'HDR + AA di Lost Coast. Tipo ad esempio non possono fare HDR in Far Cry.

In ogni caso c'è da considerare che giochi che fanno uso di HDR sono molto pochi oggi. Tra l'altro è pesantuccio e con l'AA ancora di più. Probabilmente già l'anno prossimo ci saranno + giochi che faranno uso di HDR. Giochi ancora più pesanti.

yossarian
09-03-2006, 17:36
ma quindi in questi test di HDR+AA

http://firingsquad.com/hardware/nvidia_geforce_7900_gt_gtx_performance/page9.asp

cosa ci fanno le 7900 se non possono gestire l'AA? :mbe:

scusami ma non ho capito molto della tua spiegazione

hai ragione, scusami; provo a spiegare in maniera differente anche a beneficio di Frankky

l'hdr è una tecnica che permette di ampliare il range di valori disponibili per ciascuno dei 4 canali (3 per i colori e 1 pe il canale alpha). Allo stato attuale, indipendentemente dalla precisione a cui lavorano le vga a livello di calcoli matematici (i vs sempre a fp32 e i ps a fp16, fp24 o fp32 a seconda del chip), le immagini vengono trasferite sempre in i8 (integer 8 bit per canale) nel frame buffer e, quindi, sul monitor. Questo significa che i dati sono trasferiti all'interno delle rop's (le unità che di fatto "scrivono" i pixel sul fb) dopo che sono stati "compressi", da fpxy a i8 e le rop's lavorano a i8. Con l'hdr, invece, i dati all'interno delle rop's sono elaborati a fp16. Questo serve a migliorare la qualità d'immagine complessiva, aumentando la luminosità, riducendo o eliminando eventuali difetti di visualizzazione dovuti alle operazioni di compressione (più si ritardano, nell'ambito di un'elaborazione, le operazioni di compressione sui dati e quindi più tardi si introducono livelli di precisione inferiori, più si riducono eventuali difetti di visualizzazione, più l'immagine finale risulta pulita).
L'hdr denominato OpenEXR, scelto da ATi e nVIDIA per i loro chip, prevede che le operazioni di color e alpha blending, all'interno delle rop's avvengano a fp16. Il problema è che il circuito che si occupa del MSAA lavora sempre a i8. ATi ha risolto il problema utilizzando più render target e rendendo indipendenti i due circuiti, fino a dopo le operazioni di tone mapping (che dsarebbe la compressione da fp16 e i8) delle immagini con hdr; sui chip NV, al contrario, non esiste questa indipendenza, per cui non è possibile attivare contemporaneamente MSAA e HDR.
In lost coast, la soluzione scelta è quella di fare tone mapping immediatamente dopo le operazioni di pixel shading (sono i pixel shader stessi ad occuparsi di comprimere i dati) e di far lavorare le rop's a i8. Questo permette l'attivazione del MSAA anche sui chip NV della serie NV4x e G7x, ma anche sui chip ATi della serie R3x0 e R4x0 (che non hanno affatto la possibilità di utilizzare fp16 all'interno delle rop's, mnetre i chip NV possono farlo a patto di non ricorrere al MSAA)

hackboyz
09-03-2006, 17:37
Chi vuole il top prende la X19000XT (XTX), chi vuole la migliore scheda per prezzo / prestazioni la 7900GT, direi che non c'è altro da aggiungere. :)

Questo G71 è esattamente come me l'aspettavo la GPU finale di un ottimo progetto (nV40). Ma se uno guarda avanti e vuole una scheda di transizione per i giochi dx9 - dx10 deve prendere R580.

Ed Oblivion sarà la prova del 9: al 90% i distacchi della X1900XTX saranno ancora più marcati.

OvErClOck82
09-03-2006, 17:38
OvErClOck82 mi sono permesso di dirlo in quanto le mie affermazioni sono del tutto MODERATE :) .
si, ma essere un fanboy non è positivo :D

david90
09-03-2006, 17:41
Chi vuole il top prende la X19000XT (XTX), chi vuole la migliore scheda per prezzo / prestazioni la 7900GT, direi che non c'è altro da aggiungere. :)

Questo G71 è esattamente come me l'aspettavo la GPU finale di un ottimo progetto (nV40). Ma se uno guarda avanti e vuole una scheda di transizione per i giochi dx9 - dx10 deve prendere R580.

Ed Oblivion sarà la prova del 9: al 90% i distacchi della X1900XTX saranno ancora più marcati.
e soprattutto UT2007
per il resto la vedo cmq a favore di Ati.
Nvidia ha perfezionato il g70 e allo stesso tempo si prenota con vga che costano relativamente poco per ciò che offrono.
sta solo ad Ati abbassare i prezzi(anzi ai negozianti italiani)
ora come ora prenderei sempre un radeon x1900 per il top e una 7900GT per il rapporto prezzo/prestazioni, a meno che non ci sia una differenza di prezzo esorbitante per le x1900
e poi altra cosa a favore dei radeon sono i filtri: le persone che comprano vga del genere si aspettano di utilizzare i filtri al massimo e qui i radeon stravincono. :D

yossarian
09-03-2006, 17:42
LOLLL a quanti fps su R300? :asd:
Cmq se non ci fossi bisognerebbe inventarti. Sto imparando un sacco di cose leggendoti.
Non ti montare la testa e magari se ti è possibile chiama "l' amico bravo "fek" del quale si sente molto la mancanza.
Non so più con chi trollare da quando non si fa più vivo :cry:

non è importante la velocità ma le possibilà tecniche. Sugli fps ti ha risposto DjLode; io faccio un semplice riferimento a ciò che è possibile da un punto di vista di ciò che mette a disposizione la tecnologia di un chip rispetto a quella di un altro. E tecnologicamente parlando, la modalità usata da lost coast è fruibile anche su R300.

"L'amico bravo fek", da quello che so, è molto occupato al momento, ma vedrò di contattarlo al più presto (battute a parte lo considero veramente un amico :) ).

Per quanto riguarda il montarmi la testa non temere: è molto difficile che possa darmi più arie di quelle che mi do di solito :D

DenFox
09-03-2006, 17:43
So perfettamente che essere un fanboy non è del tutto positivo, ma che ci posso fare se è da quando sono nato che gioco esclusivamente con le NVIDIA!!! :D

Tetsujin
09-03-2006, 17:44
hai ragione, scusami; provo a spiegare in maniera differente anche a beneficio di Frankky

l'hdr è una tecnica che permette di ampliare il range di valori disponibili per ciascuno dei 4 canali (3 per i colori e 1 pe il canale alpha). Allo stato attuale, indipendentemente dalla precisione a cui lavorano le vga a livello di calcoli matematici (i vs sempre a fp32 e i ps a fp16, fp24 o fp32 a seconda del chip), le immagini vengono trasferite sempre in i8 (integer 8 bit per canale) nel frame buffer e, quindi, sul monitor. Questo significa che i dati sono trasferiti all'interno delle rop's (le unità che di fatto "scrivono" i pixel sul fb) dopo che sono stati "compressi", da fpxy a i8 e le rop's lavorano a i8. Con l'hdr, invece, i dati all'interno delle rop's sono elaborati a fp16. Questo serve a migliorare la qualità d'immagine complessiva, aumentando la luminosità, riducendo o eliminando eventuali difetti di visualizzazione dovuti alle operazioni di compressione (più si ritardano, nell'ambito di un'elaborazione, le operazioni di compressione sui dati e quindi più tardi si introducono livelli di precisione inferiori, più si riducono eventuali difetti di visualizzazione, più l'immagine finale risulta pulita).
L'hdr denominato OpenEXR, scelto da ATi e nVIDIA per i loro chip, prevede che le operazioni di color e alpha blending, all'interno delle rop's avvengano a fp16. Il problema è che il circuito che si occupa del MSAA lavora sempre a i8. ATi ha risolto il problema utilizzando più render target e rendendo indipendenti i due circuiti, fino a dopo le operazioni di tone mapping (che dsarebbe la compressione da fp16 e i8) delle immagini con hdr; sui chip NV, al contrario, non esiste questa indipendenza, per cui non è possibile attivare contemporaneamente MSAA e HDR.
In lost coast, la soluzione scelta è quella di fare tone mapping immediatamente dopo le operazioni di pixel shading (sono i pixel shader stessi ad occuparsi di comprimere i dati) e di far lavorare le rop's a i8. Questo permette l'attivazione del MSAA anche sui chip NV della serie NV4x e G7x, ma anche sui chip ATi della serie R3x0 e R4x0 (che non hanno affatto la possibilità di utilizzare fp16 all'interno delle rop's, mnetre i chip NV possono farlo a patto di non ricorrere al MSAA)

ti ringrazio molto yossarian, in queste cose tecniche ne capisco poco, ma leggendoti inizio a farmi un'idea piu chiara su come funzionano le vga di oggi, al di al di installare atitool e aumentare frequenze e voltaggi :D

grazie della delucidazione :)

bartolino3200
09-03-2006, 17:48
Su R300 male non va mio caro. L'ho detto piu' volte: facciamo scemare il discorso che per giocare con il PC bisogna per forza spendere cifre folli ogni anno perche' e' assolutamente falso. I giochi per PC sono scalabili: abbassi la risoluzioni, cambi qualche dettaglio e vedrai che con un R300 (ma anche altri prodotti) oggi giochi a tutto, anche a Lost Coast con HDR abilitato.

Giocare non vuol dire volere a tutti i costri sempre e comunque il massimo dettaglio. Io posso ridurre un pochino la risoluzione e abilitare l'HDR perche' preferisco avere l'illuminazione piu' realistica anche se l'immagine e' un po meno dettagliata.

Nulla da obbiettare avevo un 9800pro, che mi sono tolto per altri motivi e che forse ricorderai.




Tutti i test delle schede singole oltre che chiaramente quelli SLI sono eseguiti sulla piattaforma NFORCE4. La piattaforma CrossFire e' usata solo per i test CrossFire. Tutti gli altri risultati sono, quindi, perfettamente confrontabili.


Riguardo i grafici degli score hai ragione: alla fine sono saltate fuori forse troppe voci, ma le alternative sarebbero state due:

1) Non pubblicare tutti quei test SLI e CF
2) Pubblicarli in grafici e parte e in pagine a parte

Nel primo caso avresti avuto meno dati ed e' un vero peccato.
Nel secondo caso avresti avuto il doppio delle pagine dedicate ai benchmark passando da 20 a 26 pagine di recensione il che e' una via praticabile, ma comunque non mi e' venuta in mente perche' il tempo da dedicare ad ogni articolo e' limitato e ci sono scelte da prendere velocemente. Al momento vi scrivo dal Cebit e l'articolo e' stato chiuso due giorni fa.

La rece ribadisco è completa, ma per colpa dei sti benedetti SLI e CF i grafici perdono un po' il loro compito principe: la chiarezza.
Non entro nel merito dell' impaginazione, per carità è ben lungi dalle mie competenze (fra l' altro poche :asd: ). Non saprei che consiglio apportare, chessò magari grafici un po' più piccoli in numero maggiore sulla stessa pagina pur di avere CF ed SLI separati da singola VGA.
Per la questione piattaforma, ok si viene specificato prima in "Configurazione dei Test" ma non era chiaro se nel test consumi/rumorosità fosse stata usata medesima piattaforma o meno.
Cmq la rece c' è puntualmente e nonostante gli impegni ;)

[OT] Quindi sei al Cebit? :ciapet: Io invece sempre qui in terronia... :cry: [OT]

hackboyz
09-03-2006, 17:50
Anche per me i test delle configurazioni SLI e CF dovrebbero essere messe a parte: che siano comunque facilmente confrontabili con quelli delle singole schede ma in modo che quest'ultimi spicchino maggiormente ... ora tra SLI e CF di tutte le schede top e intermedie nei grafici è difficile capire chi vince

Al 98% delle persone interessano le prestazioni delle schede singole ;)

ledlama
09-03-2006, 17:51
scusate faccio una domanda forse stupida perchè mettendo l'hdr di lost coast hl2 le schede ati non stravincono noostante sia a un livello inferiore di qualità?

Se non sbaglio non scorticatemi vivo!

DVD2005
09-03-2006, 17:52
Inoltre mi sa che i possessori di 7800 fanno meglio a tenersele e sfruttarle come si deve. Rivenderle non sarà di certo un affare. Basta vedere la 7800GTX 256 MB: all'uscita costava 549 euro. La 7900GT 9 mesi dopo di default va un po' più forte e costa al momento 329 euro: 220 euro di differenza. Non so a quanto è vendibile una 7800 quindi. :)


hai ragione, io non avevo intenzione di passare alla 7900, sicuramente ora ancora di meno. La mia scheda (pagata 540 euro 4 mesi fa), è da rivendere usata sui 250 come massimo (e forse è ancora tanto) visti i prezzi della 7900GT, quindi non ha proprio senso.

Foglia Morta
09-03-2006, 17:53
la qualità è la stessa per tutte le schede, vengono testate a parità di condizioni , non è che per le ati la qualità è più bassa e per le nvidia è più alta , è la stessa

*MATRIX*
09-03-2006, 17:56
Raga io non so voi ma sono rimasto un po deluso....
le 32 pipe che fine hanno fatto?avevano detto che ci sarebbero state.. e invece.. :mad:

A parte questo la 7900gt me sembra che come qualità prezzo batta tutti!però la considero una scheda inutile per 2 semplici motivi(a meno che uno non debbia cambiare con una scheda datata(<6600gt)

1)con i giochi che usciranno,vedi oblivion e unreal 3.0,non si potrà godere dal massimo del dettaglio con filtri attivati,se devo migliorare solo leggermente tanto vale che mi tengo la mia 6800/7800...

2)non supportano le dx10 per cui alcuni giochi che per la fine dell'anno le avranno sarà un problema e ci sarà da rimettere mano al portafoglio(nel giro di un anno) per almeno vedere gli effetti delle nuove dx10


Voi che ne pensate? :D

cosa ne penso ?

ps3 direttamente

al max mi compro un portatile per tutto ciò che non sia gioco

ledlama
09-03-2006, 17:57
scusa forse non mi sono spiegato bene, ma sa che è propio così:

allora ... l'hdr di hl2 lc è i8 giusto?
come mai l'hdr i8 che usa hl2 lc favorisce le schede nvidea confronto alle ati?
non riesco a spiegarmi azzz. la dislessia!!!!!GRRRRRGRGRGRGRGR

DVD2005
09-03-2006, 17:57
Certo magari anche prima, ma nella vita ci sono altre spese da affrontare oltre alle GPU ;)



su questo non c'è dubbio. :)

wwig
09-03-2006, 17:59
Non sono d'accordo con la conclusione perchè a fronte di una sostanziale parità nei bech dei giochi, ati dispone di una tecnologia più avanzata per quanto riguarda gli effetti grafici e i filtri.
Inoltre chi spende 300€ per una VGA oltre alla velocità vuole anche la qualità, perciò le nuove ati x1800/x1900 sono da preferire alle 7900.

Foglia Morta
09-03-2006, 17:59
scusa forse non mi sono spiegato bene, ma sa che è propio così:

allora ... l'hdr di hl2 lc è i8 giusto?
come mai l'hdr i8 che usa hl2 lc favorisce le schede nvidea confronto alle ati?
non riesco a spiegarmi azzz. la dislessia!!!!!GRRRRRGRGRGRGRGR
in quel caso l'architettura nvidia risulterà favorita... non ho spiegazioni tecniche :D

halduemilauno
09-03-2006, 18:01
Chi vuole il top prende la X19000XT (XTX), chi vuole la migliore scheda per prezzo / prestazioni la 7900GT, direi che non c'è altro da aggiungere. :)

Questo G71 è esattamente come me l'aspettavo la GPU finale di un ottimo progetto (nV40). Ma se uno guarda avanti e vuole una scheda di transizione per i giochi dx9 - dx10 deve prendere R580.

Ed Oblivion sarà la prova del 9: al 90% i distacchi della X1900XTX saranno ancora più marcati.



queste sono schede capolinea delle dx9. le dx10 con queste schede non hanno e ne avranno nulla a che vedere.
;)

yossarian
09-03-2006, 18:02
scusa forse non mi sono spiegato bene, ma sa che è propio così:

allora ... l'hdr di hl2 lc è i8 giusto?
come mai l'hdr i8 che usa hl2 lc favorisce le schede nvidea confronto alle ati?
non riesco a spiegarmi azzz. la dislessia!!!!!GRRRRRGRGRGRGRGR

perchè fa uso di texture blending a fp16 (a livello di pixel pipeline, quindi prima delle operazioni di tone mapping) e in questo tipo di operazioni i chip NV sono più veloci, in quanto sono eseguite direttamente dalle tmu, mentre nei chip ATi sono eseguite dalle psu

ledlama
09-03-2006, 18:02
allora sono riuscito a spiegarmi....
era quello che non capivo come mai ati nonostante sia migliori in filtri ecc. in hl2 lc che usa un hdr diciamo più scarso non riesce a mantenere gli ottimi risultati ma cade in prestazioni!

Forse ce l'ho fatta!!!!OLE!!!!

bjt2
09-03-2006, 18:05
x yossarian

Il texture blending sarebbe la "fusione" di più texture, giusto?

Poi non ho ben capito come ATI aggira il problema del MSAA+HDR... Cosa duplica? L'MSAA è sempre fatto ad i8 o a fp16?

yossarian
09-03-2006, 18:17
x yossarian

Il texture blending sarebbe la "fusione" di più texture, giusto?


si



Poi non ho ben capito come ATI aggira il problema del MSAA+HDR... Cosa duplica? L'MSAA è sempre fatto ad i8 o a fp16?

utilizza uno specifico render target per le operazioni di tone mapping da fp16 a i8 e, successivamente, procede alle operazioni di blending tra i due render target (quello relativo al MSAA e quello ottenuto dal tone mapping) entrambi a i8.
NV, invece, utilizza solo due render target, una per fp16 e uno per i8; ciò comporta che le operazioni di tone mapping vanno a sovrascrivere l'immagine con MSAA.

Il circuito dedicato al MSAA lavora sempre a i8 anche per ATi

bjt2
09-03-2006, 18:23
Ah, ma allora è un "pezzotto"! Se ho capito bene, quindi ha MSAA solo la parte "non HDR", cioè la parte base, ma la parte che da le luci (quella che viene smoothata per riprodurre l'effetto di luce forte) è senza MSAA! E viene fusa (blending ;) ) con la parte con MSAA. Io ero convinto che fosse fatto MSAA in fp16. Ma ora che ci penso non è così necessario: essendo smoothata, non si vedono già le scalettature, a prescindere dall'MSAA ;)

bjt2
09-03-2006, 18:25
Qindi in NVIDIA il tone mapping lo fanno le ROPs e si sovrascriverebbe il risultato dell MSAA... Giusto?

Grazie per la pazienza! ;)

Dobermann75
09-03-2006, 18:27
hai ragione, io non avevo intenzione di passare alla 7900, sicuramente ora ancora di meno. La mia scheda (pagata 540 euro 4 mesi fa), è da rivendere usata sui 250 come massimo (e forse è ancora tanto) visti i prezzi della 7900GT, quindi non ha proprio senso.
Imho vendere la 7800gtx per passare alla 7900 è una cavolata, considerando che 7900 in fondo è una gpu di transizione e che tra un po arriverà G80 con supporto alle dx10... oltre tutto con i titoli in circolazione giochi benissimo a tutto.
7900 e per la prexisone la gt ha senso solo per chi deve procedere con un upgrade di hw ormai vecchio e vuole una s.video potente con un buon prezzo
ciao

Apple80
09-03-2006, 18:28
l'unica cosa di interessante che hanno sono i prezzi. Dopo aver visto le prestazioni del G71 , penso che dopo 2 anni e più ritornero' su ati. Da quello che ho visto la X1900 XTX va un pelino di più della 7900gtx con la differenza che usa meglio AA e ci posso pure fare encoding video da subito.

ora non resta che puntare sul G80 e spero che entrambe si mettano d'impegno visto che hanno l'occasione di rifare l'intera architettura.

MiKeLezZ
09-03-2006, 18:28
mamma mia i commenti di yossarian sarebbero da incorniciare
wow anche la spiegazione sul die shrink.. da mettere nell'articolo
riguardo a quest'ultimo, mancava purtroppo la 7800GT per confrontare le differenze con la 7900GT (stessa fascia di prezzo), soprattutto mi interessava vedere quanto è migliorato il consumo
la 7800GT ero finora la scheda dal rapporto migliore performance/watt, seguita non troppo distante dalla x1800xl
sapere questo è importante per due motivi:
- il consumo -> soldi nella bolletta
- la dissipazione termica -> se consuma meno, scalda meno, sia se stessa che i componenti vicini, e si può ridurre l'efficienza del sistema di raffredamento
sì, perchè i test sulla rumorosità li ritengo praticamente inutili, conta solo quanti W dissipa la scheda, da lì poi dovrai fare i conti di quanto veloce dovrai mandare la ventolina per dissipare il calore in eccesso
bassi consumi=ventolina silenziosa
per i watt consiglio di aspettare xbitlabs...
comunque mi sembra chiaro quale sarà la nuova scheda top gamma per htpc e minicase

Marci
09-03-2006, 18:29
finalmente esce una scheda video bella potente che consuma la metà delle altre e tutti ci si scagliano contro? Prima vi lamentate dei millemila alimentatori, del risparmio energetico, del surriscaldamento terrestre e del fatto che preferiate l'affinamento tecnologico alla potenza bruta e poi attaccate l'NVidia che tira fuori una scheda che va un pelino meno della X1900che costa meno e consuma la metà della corrente?

yossarian
09-03-2006, 18:31
Qindi in NVIDIA il tone mapping lo fanno le ROPs e si sovrascriverebbe il risultato dell MSAA... Giusto?

Grazie per la pazienza! ;)

anche nei chip ATi lo fanno le rop's, ma utilizzano una diversa porzione del fb rispetto a quello utlizzato per il MSAA. Anzi, ad essere precisi, fanno uso anche della color cache interna alle stesse rop's in cui possono svolgere sia operazioni di tone mapping (a valle dei circuiti di color e alpha blending) che operazioni di blending tra l'immagine sottoposta a tone mapping e quella con AA

Apple80
09-03-2006, 18:33
Imho vendere la 7800gtx per passare alla 7900 è una cavolata, considerando che 7900 in fondo è una gpu di transizione e che tra un po arriverà G80 con supporto alle dx10... oltre tutto con i titoli in circolazione giochi benissimo a tutto.
7900 e per la prexisone la gt ha senso solo per chi deve procedere con un upgrade di hw ormai vecchio e vuole una s.video potente con un buon prezzo
ciao


penso che il cambio più efficace a quel punto sia da 7800gtx a x1900xtx. E cmq stanno arrivando un bel po' di titoloni. Oblivion , Gotich 3 , Splinter cell 4 , quake wars . Si ovviamente prima vediamo come girano poi si opterà per una x1900xtx. :D

DVD2005
09-03-2006, 18:34
Imho vendere la 7800gtx per passare alla 7900 è una cavolata, considerando che 7900 in fondo è una gpu di transizione e che tra un po arriverà G80 con supporto alle dx10... oltre tutto con i titoli in circolazione giochi benissimo a tutto.
7900 e per la prexisone la gt ha senso solo per chi deve procedere con un upgrade di hw ormai vecchio e vuole una s.video potente con un buon prezzo
ciao


completamente d'accordo con te.

yossarian
09-03-2006, 18:35
Ah, ma allora è un "pezzotto"! Se ho capito bene, quindi ha MSAA solo la parte "non HDR", cioè la parte base, ma la parte che da le luci (quella che viene smoothata per riprodurre l'effetto di luce forte) è senza MSAA! E viene fusa (blending ;) ) con la parte con MSAA. Io ero convinto che fosse fatto MSAA in fp16. Ma ora che ci penso non è così necessario: essendo smoothata, non si vedono già le scalettature, a prescindere dall'MSAA ;)

il circuito di MSAA lavora direttamente sulle primitive, ossia opera sulle linee di demarcazione delle mesh (lavora parallelamente al resto del chip che nel frattempo provvede alle operazioni di pixel shading, texturing e blending); quindi non c'è necessità di farlo lavorare a fp16 in quanto non c'è il rischio di propagazione degli errori (gli unici eventuali errori introdotti sono quelli relativi alle operazioni di compressione dei dati, ma quelli sono, comunque inevitabili)

Apple80
09-03-2006, 18:37
finalmente esce una scheda video bella potente che consuma la metà delle altre e tutti ci si scagliano contro? Prima vi lamentate dei millemila alimentatori, del risparmio energetico, del surriscaldamento terrestre e del fatto che preferiate l'affinamento tecnologico alla potenza bruta e poi attaccate l'NVidia che tira fuori una scheda che va un pelino meno della X1900che costa meno e consuma la metà della corrente?

e il supporto all'HDR con AA dove lo metti.

Vaglielo a dire a quelli che si piagliano i macchinoni di grossa cilindrata che non inquinano visto quello che consumano nè e ai migliaia di camion che circolano ogni giorno. 80 watt in meno non sono nulla a confronto :rolleyes:

DVD2005
09-03-2006, 18:38
penso che il cambio più efficace a quel punto sia da 7800gtx a x1900xtx. E cmq stanno arrivando un bel po' di titoloni. Oblivion , Gotich 3 , Splinter cell 4 , quake wars . Si ovviamente prima vediamo come girano poi si opterà per una x1900xtx. :D


vedremo, io spero di poter tirare fino a DX10 ;)

Precio
09-03-2006, 18:39
scusate se mi intrometto...
ma ho visto che su nuovouovo.com vendono la 7900gtx a 499$ !!!!!!!
qlcuno deve andare per caso in america :-))

Apple80
09-03-2006, 18:41
vedremo, io spero di poter tirare fino a DX10 ;)

lo spero pure io.



Ora vediamo come gireranno i titoli che ho elencato :sperem:

Apple80
09-03-2006, 18:46
scusate se mi intrometto...
ma ho visto che su nuovouovo.com vendono la 7900gtx a 499$ !!!!!!!
qlcuno deve andare per caso in america :-))


otimo x' io su ebay ho già visto uno strozino che vende una 7900gtx a 800 dollari. Gli auguro tutte le piaghe d'egitto.

DVD2005
09-03-2006, 18:47
lo spero pure io.



Ora vediamo come gireranno i titoli che ho elencato :sperem:


eh già,almeno quanto me vista la tua scheda in firma... :sperem:

Apple80
09-03-2006, 18:54
ho già visto da un noto shop di milano la 7900gtx a 569 euri e la 7900gt a 365 euri disponibili da ora.

anche la 7600gt a 234 euri.

EDIT.


ma la X1900 XTX 512MB vi risulta anche a voi che la si trova a 510 euri ? :eek:

Dobermann75
09-03-2006, 18:56
penso che il cambio più efficace a quel punto sia da 7800gtx a x1900xtx. E cmq stanno arrivando un bel po' di titoloni. Oblivion , Gotich 3 , Splinter cell 4 , quake wars . Si ovviamente prima vediamo come girano poi si opterà per una x1900xtx. :D
Si, però resto dell'idea che anche un cambio in questo senso non ne vale il costo.. pensando ad un vero upgrade della sezione video per le dx10..
inoltre se come me oltre che giocare ;) , usi anche software per modellazione solida, basato su opengl , passare ad Ati ,ora come ora, non porta certo un giovamento...
ciao

bjt2
09-03-2006, 18:58
x yossarian...

Quindi se ho capito bene, a grosse linee, le RPOs di ATI dividono il FB in 3 parti: una per la parte HDR a fp16, una per la traduzione con il tone mapping a i8 e una per l'immagine di base con l'MSAA, sempre ad i8, che poi viende "blendata" con quella con il tone mapping (penso in-place)... Mentre NVIDIA può fare blending in FP16 (per l'HDR) e poi il tone mapping ad i8, ma poi non può "blendare" se l'altra parte del FB è con MSAA, ma non mi è chiaro perchè...

Apple80
09-03-2006, 19:04
Si, però resto dell'idea che anche un cambio in questo senso non ne vale il costo.. pensando ad un vero upgrade della sezione video per le dx10..
inoltre se come me oltre che giocare ;) , usi anche software per modellazione solida, basato su opengl , passare ad Ati ,ora come ora, non porta certo un giovamento...
ciao


appunto x' non uso software per modellazione soldia. A mè basta giocare. :D

yossarian
09-03-2006, 19:19
x yossarian...

Quindi se ho capito bene, a grosse linee, le RPOs di ATI dividono il FB in 3 parti: una per la parte HDR a fp16, una per la traduzione con il tone mapping a i8 e una per l'immagine di base con l'MSAA, sempre ad i8, che poi viende "blendata" con quella con il tone mapping (penso in-place)... Mentre NVIDIA può fare blending in FP16 (per l'HDR) e poi il tone mapping ad i8, ma poi non può "blendare" se l'altra parte del FB è con MSAA, ma non mi è chiaro perchè...

per come sono strutturate le rop's; più render target equivalgono a più punti di spilling (uscita dei dati) e quindi presuppongono l'esistenza di circuiti indipendenti tra loro che lavorino in parallelo. Il livello di complessità delle rop's dei due chip è molto simile, con la differenza che nVIDIA ha puntato sulla possibilità di avere due punti di spilling per le stencil ops, mentre ATi ha puntato sulla possibilità di utilizzare hdr e MSAA insieme. Per avere anche questa seconda opzione, NV avrebbe dovuto aumentare la complessità circuitale delle rop's riprogettandone una parte

Raven
09-03-2006, 19:19
penso che il cambio più efficace a quel punto sia da 7800gtx a x1900xtx.

Onestamente invece spero che chi ha una x1800/7800 non sia così folle da andare su x1900/7900... ;)

DVD2005
09-03-2006, 19:25
Onestamente invece spero che chi ha una x1800/7800 non sia così folle da andare su x1900/7900... ;)


io non lo sono ancora ;)

jp77
09-03-2006, 19:31
Onestamente invece spero che chi ha una x1800/7800 non sia così folle da andare su x1900/7900... ;)


effettivamente ragionando sarebbe un cambio da evitare...se però c'è la passione e il portafoglio gonfio....

MaBru
09-03-2006, 19:32
effettivamente ragionando sarebbe un cambio da evitare...se però c'è la passione e il portafoglio gonfio....
Le mie tasche sono vuote. Integri?:D

Dr House
09-03-2006, 19:32
Onestamente invece spero che chi ha una x1800/7800 non sia così folle da andare su x1900/7900... ;)

io allora ne ho visti di folli

jp77
09-03-2006, 19:37
Le mie tasche sono vuote. Integri?:D


no mi spiace sei capitato male...anche le mie sono vuote!!! :(

Darkgift
09-03-2006, 19:44
Concordo pienamente con chi prima di me sosteneva che i test singola scheda e quelli sli\cf dovrebbero essere fatti separatamente.
Non si capisce veramente una mazza.
Comunque 7900 gt bellissima scheda.......anche in overclok anche se credo che mi farò una x1800xt 256 mb a brevissimo...visti i tagli di prezzo...imminenti.
Se ati fosse riuscita ad implementare le 24 pipe su queste schede.......Nvidia poteva pure chiudere quest'anno........
Comunque la cosa piu bella degli ultimi tempi è il taglio selvaggio dei prezzi.......ci voleva proprio !!!!
Aspettiamo qualche giorno per vedere come si comporta x1800gto e poi passo all'acquisto.......

Foglia Morta
09-03-2006, 19:45
Detto questo, ci sarebbero da fare alcune brevi considerazioni:
è evidente che il calo alle alte risoluzioni e/o con i filtri attivi, non è imputabile, almeno per le 7800, alle limitazioni in banda; questo eprchè il rapporto banda/fillrate per la 7900 GTX è decisamente peggiore rispetto a quello delle due verioni (256 e 512 MB) della 7800 e, in assoluto, la bandwidth della 7900 GTX è inferiore a quella della 7800 512 MB. Ciò significa che il calo è dovuto alla non elevatissima efficienza del chip a livello computazionale, che si acuisce all'aumentare della complessità dei calcoli, facendo crescere il divario rispetto a R5x0 che ha una maggior efficienza complessiva nella gestione delle operazioni di texture fetch, nel trasferimento dei dati e nelle operazioni di pixel shading. Questa osservazione, ne porta un'altra: ossia, la totale inutilità della ram da 1,1 ns montate sulla 7800 GTX da 512 MB; è evidente, infatti, che le ram delle 7800 erano sovradimensionate e l'utilizzo di ram così veloci era dovuto a mere questioni di marketing piuttosto che ad una reale necessità.
però riguardando i grafici delle 7900 in overclock non mi pare sia proprio così:
http://www.hwupgrade.it/articoli/1450/fc_oc_3.png
http://www.hwupgrade.it/articoli/1450/fc_oc_4.png
osservando solo la risoluzione più alta ( e stressante per la banda passante )quei 100 mhz in meno sulle memorie della 7900GT o/c mi sembrano che pesino parecchio se si confronta con la 7800 550/1700

fortschleichen
09-03-2006, 19:47
Non sarebbe il caso di passare ad un sistema con 2GB di ram, soprattutto per i test con gli ultimi giochi tipo fear???

halduemilauno
09-03-2006, 19:54
Concordo pienamente con chi prima di me sosteneva che i test singola scheda e quelli sli\cf dovrebbero essere fatti separatamente.
Non si capisce veramente una mazza.
Comunque 7900 gt bellissima scheda.......anche in overclok anche se credo che mi farò una x1800xt 256 mb a brevissimo...visti i tagli di prezzo...imminenti.
Se ati fosse riuscita ad implementare le 24 pipe su queste schede.......Nvidia poteva pure chiudere quest'anno........
Comunque la cosa piu bella degli ultimi tempi è il taglio selvaggio dei prezzi.......ci voleva proprio !!!!
Aspettiamo qualche giorno per vedere come si comporta x1800gto e poi passo all'acquisto.......

dalle rece viste oggi inferiore alla 7600gt.
;)

OverClocK79®
09-03-2006, 19:59
Non alcuni. Purtroppo tutti...

si vero
ma gli tolgo il fatto di essere ancora a 0.11 e quindi le basse freq della 7800GTX
aumentate solo con alcuni sample della 512.....
e il bisogno di ventolazi fantoziani......
consumi e rumorosità sono a buoni livelli :)

BYEZZZZZZZZZZ

Maury
09-03-2006, 20:01
Complimenti per la rece :)

Vifani
09-03-2006, 20:07
Non sarebbe il caso di passare ad un sistema con 2GB di ram, soprattutto per i test con gli ultimi giochi tipo fear???

Ciao.

Il test di FEAR non e´molto pesante. Dovete considerare che innanitutto che il benchmark di un gioco puó essere diverso dal giocare al gioco stesso (manca l´interattivitá, il suono, ecc...). Inoltre il sistema di test é un sistema sul quale non trovate niente in esecuzione in background. Niente antivirus, niente firewall, niente di niente. Solo il minimo indispensabile per far funzionare correttamente la scheda video (quindi al piü il pannello di controllo, ecc...). Quindi alla fine la RAM é praticamente dedicata tutta a ció che stai facendo girare.

Vifani
09-03-2006, 20:11
Voglio ringraziare yossarian per il tempo che dedica alla comunitá con i suoi istruttivi interventi. In piú di una occasione sarei dovuto intervenire io in questa discussione per spiegare alcune cose ad alcuni utenti ed i suoi interventi mi hanno aiutato il che é molto gradito specie quando sei impegnato tra un meeting e l´altro ad una fiera :)

tiranium_j
09-03-2006, 20:14
BEh mi aspettavo di meglio, infatti ATi vince su nVidia, infatti non sono poche le volte in cui sta avanti, e con i filtri sattivi lo è sempre, sempre più veloce, e non venite a dire che non è vero, anche perchè l'importante è che sia più veloce con i filtri, e ati con la x1900xtx lo è.

ottima scheda invece la 7900gt, un affare.

kenjcj2000
09-03-2006, 20:15
Eccomi :D
allora io dico che.... la 7900gt è x mè una buonissssima sheda a un buon prezzo anzi grande prezzo su quella cifra penso sia il top brava Nvidia

x quanto riguarda i consumi a uno che spende 600euro in una vga non penso che ne freghi molto del basso consumo anche xche ne state parlando come se consuma la metà di corrente dove lo avete letto :confused:

x la 7900gtx non mi piace x nulla costa troppo x quello che è con i filtri...... insomma x mio parere questa volta non ci sono dubbi se uno vuole il top ci vuole la serie 1900 (e direi meno male altrimenti matto come sono avrei preso pure questa :D ) come suo tempo è stata la 7800512

in tutta sincerità il top gamma Nvidia mi ha un pò deluso anzi molto

Sawato Onizuka
09-03-2006, 20:18
Inoltre il sistema di test é un sistema sul quale non trovate niente in esecuzione in background. Niente antivirus, niente firewall, niente di niente. Solo il minimo indispensabile per far funzionare correttamente la scheda video (quindi al piü il pannello di controllo, ecc...). Quindi alla fine la RAM é praticamente dedicata tutta a ció che stai facendo girare.

ma a volte non tutti se lo ricordano o non ci pensano proprio (anche se è abbastanza ovvio), pertanto nn sarebbe una cattiva idea mettere un simile disclaimer prima dei suddetti test ? :D

yossarian
09-03-2006, 20:23
però riguardando i grafici delle 7900 in overclock non mi pare sia proprio così:
osservando solo la risoluzione più alta ( e stressante per la banda passante )quei 100 mhz in meno sulle memorie della 7900GT o/c mi sembrano che pesino parecchio se si confronta con la 7800 550/1700

parecchio non direi; se così fosse, a 1920 con AA e AF la 7900 starebbe sotto alla 7800 GTX (nelle situazioni bandwidth limited i MHz in più sul core non hanno alcuna utilità); invece, anche se di poco, è in vantaggio. Inoltre, l'incremento dovuto al'o/c è piuttosto modesto (siamo nell'ordine del 5,8%) e si hanno anche 50 MHz in più sul core (oltre che ram quasi allo stesso livello della 7800 GTX 512 MB).
Che poi la 7900 GTX possa, in alcuni casi, risultare leggermente bandwidth limited (se fossero confermati questi valori, siamo sull'ordine di un 4-6% ma bisogna tener conto anche dell'incremento del core) ci sta tutto (l'avevo anticipato nei giorni scorsi); di certo non lo è la 7800 GTX e non lo sarebbe neppure con ram da 1,2 ns (al posto di quelle da 1,1). Anzi, ad essre sinceri, mi aspettavo una 7900 molto più bandwidth limited poichè ritenevo che le ram delle 7800 non fossero sovradimensionate e, invece, da questo punto di vista mi sono dovuto ricredere

yossarian
09-03-2006, 20:32
Voglio ringraziare yossarian per il tempo che dedica alla comunitá con i suoi istruttivi interventi. In piú di una occasione sarei dovuto intervenire io in questa discussione per spiegare alcune cose ad alcuni utenti ed i suoi interventi mi hanno aiutato il che é molto gradito specie quando sei impegnato tra un meeting e l´altro ad una fiera :)


figurati; goditi la fiera che ci penso io a tenerli buoni :sofico:

Approfitto per farti i complimenti per la recensione

desmacker
09-03-2006, 20:33
Il G71 è ottimo per lo SLI ma come GPU singola mi ha deluso.
Avrei preferito di certo una versione con 32 pipe e un antiasling più efficente o almeno HDR+AA insieme.
Poi mi piacerebbe sapere come mai il consumo in IDLE e superiore a una X1900XTX ?

riva.dani
09-03-2006, 20:43
Ma perchè tutti si lamentano? Minestra riscaldata? Ma se propongono schede migliori non solo in prestazioni ma anche riguardo ai consumi e alla dissipazione termica ALLO STESSO PREZZO come fate a lamentarvi? :eek:

Parlo da possessore Ati, sia chiaro...

Ma li avete visti i margini di Overclock della 7900GT??? Va particamente a prendere la GTX! E col dissy stock!

A me pare un'ottima mossa, sono felice di aver aspettato. In Germania si trovano già anche a meno di 329€ (le GT ovvio). Poi il fatto che Ati punti di più alla qualità dell'immagine è indubbio, ma ora come ora in negozio per spendere la stessa cifra dovrei acquistare una X1800XL (e spenderei pochi € di più): non mi pare valga la pena... Poi non penso che le immagini prodotte da una 7900GT saranno scadenti, o che un po' di antialiasing mentre gioco a NFS:MW (a 1280*1024, dato il mio 730BF) la metteranno in crisi.

Io me la compro, vi farò sapere cosa può fare sotto a un vf700cu (che è compatibile, vero? :stordita: ).
Il liquido? Più avanti! ;)

Gargor
09-03-2006, 20:57
Cmq per chi ha la seria 7800, non vale proprio la pena prendere una serie 7900! Anche xchè non supporta le directoryX 10! Ciao!

pistolino
09-03-2006, 21:03
Ottima recensione e ottima scheda, soprattutto la 7900GT :)

riva.dani
09-03-2006, 21:05
Cmq per chi ha la seria 7800, non vale proprio la pena prendere una serie 7900! Anche xchè non supporta le directoryX 10! Ciao!

Su questo ti dò ragione, ma io parlavo completamente IMHO e ovviamente a mio completo e disinteressato vantaggio... Bastard Inside!! :Perfido:

Ginger79
09-03-2006, 21:11
7900GT = La migliore scheda mai prodotta per rapporto qualità/prezzo ... la nuova Ti4200!!

Ordinata a 299€ !!

idt_winchip
09-03-2006, 21:12
Uhm.. :stordita:

Geffo 4 MX 440 powaaaaaaaaaaa :ciapet:


:ops2:

:D

kenjcj2000
09-03-2006, 21:14
Su questo ti dò ragione, ma io parlavo completamente IMHO e ovviamente a mio completo e disinteressato vantaggio... Bastard Inside!! :Perfido:

Io sono deluso dal top della gamma la 7900gtx che mi aspettavo di più non ho capito ancora il senso di questa scheda la gt è più che ottima ma x favore lasciamo stare i consumi si parla di poco in più x le 1900 ne parliamo (mi riprto come sopra) come se queste 7900 consumassero la metà da quanto ho capito si aggira intorno al 15% in meno.....

Einhander
09-03-2006, 21:17
Salve a tutti....ho appena letto la recensione e faccio i miei complimenti alla redazione,tuttavia vorrei muovere solo un appunto: Come mai FEAR nn compare sui bench?infondo credo sia l'unico gioco di quelli testati che possa dare l'idea di cosa ci aspetta per il futuro.Se ci pensate l'uscita di Oblivion e' alle porte in piu' per quest'anno sono pure previsti Quake wars enemy territory,Unreal tournament 2007 e "il seguito spirituale" di far cry,ovvero crysis( e a vedere le immagini sara' quantomeno incredibile..).
Nn vorrei muovere una critica alla recensione ma forse la mancanza di un bench sul titolo monolith rappresenta una mancanza un po' ingiustificata,in quanto vista l'aria che tira potrebbe aiutare a capire quale sia la reale efficienza delle due architetture per le prossime applicazioni e FEAR sotto questo punto di vista e' uno dei giochi piu' evoluti(cmq hdr e AA sono previsti per tutti i giochi sopracitati e nn e' che sono poi dei giochini,quindi ripeto: Perche' nn avete inserito FEAR?)


Ciaooooooooo!!!

leoneazzurro
09-03-2006, 21:18
Il livello di complessità delle rop's dei due chip è molto simile, con la differenza che nVIDIA ha puntato sulla possibilità di avere due punti di spilling per le stencil ops, mentre ATi ha puntato sulla possibilità di utilizzare hdr e MSAA insieme. Per avere anche questa seconda opzione, NV avrebbe dovuto aumentare la complessità circuitale delle rop's riprogettandone una parte

Se non sbaglio però RV530 e R580 hanno anch'essi la possibilità di raddoppiare il fill rate nel caso di stencil ops :)

Foglia Morta
09-03-2006, 21:24
Salve a tutti....ho appena letto la recensione e faccio i miei complimenti alla redazione,tuttavia vorrei muovere solo un appunto: Come mai FEAR nn compare sui bench?infondo credo sia l'unico gioco di quelli testati che possa dare l'idea di cosa ci aspetta per il futuro.Se ci pensate l'uscita di Oblivion e' alle porte in piu' per quest'anno sono pure previsti Quake wars enemy territory,Unreal tournament 2007 e "il seguito spirituale" di far cry,ovvero crysis( e a vedere le immagini sara' quantomeno incredibile..).
Nn vorrei muovere una critica alla recensione ma forse la mancanza di un bench sul titolo monolith rappresenta una mancanza un po' ingiustificata,in quanto vista l'aria che tira potrebbe aiutare a capire quale sia la reale efficienza delle due architetture per le prossime applicazioni e FEAR sotto questo punto di vista e' uno dei giochi piu' evoluti(cmq hdr e AA sono previsti per tutti i giochi sopracitati e nn e' che sono poi dei giochini,quindi ripeto: Perche' nn avete inserito FEAR?)


Ciaooooooooo!!!
si che c'è FEAR: http://www.hwupgrade.it/articoli/skvideo/1450/10.html

Maestrus
09-03-2006, 21:29
Quando si parla di schede video high end si parla di schede video destinate ad utenti "entusiast". Quindi di gente che vuole il massimo delle prestazioni e per averlo è disposta a spendere cifre spaventose. Tutti coloro che posseggono una scheda video potente, prima di avviare un qualsiasi gioco, alzano i dettagli al massimo. La scheda che garantisce le migliori prestazioni alla massima qualita è la x1900xtx. Lei è la vera VINCITRICE per il settore high end. Il minor consumo e rumore sono fattori che vengono trascurati da parte degli utenti alle quali sono destinate le schede video high end. Personalmente apprezzo parecchio nvidia specialmente per il rapporto prezzo prestazioni. Ma in questo momento la scheda video migliore è sicuramente la x1900xtx. Ricordiamoci che l'architettura di ati è davvero futuristica è puo permettere alle schede x1900xtx di durare qualche mese in più di quelle nvidia.

Daytona
09-03-2006, 21:35
finalmente esce una scheda video bella potente che consuma la metà delle altre e tutti ci si scagliano contro? Prima vi lamentate dei millemila alimentatori, del risparmio energetico, del surriscaldamento terrestre e del fatto che preferiate l'affinamento tecnologico alla potenza bruta e poi attaccate l'NVidia che tira fuori una scheda che va un pelino meno della X1900che costa meno e consuma la metà della corrente?

>>finalmente esce una scheda video bella potente che consuma la metà delle altre<<

no consuma un po di meno...

<<NVidia che tira fuori una scheda che va un pelino meno della X1900che costa meno e consuma la metà della corrente?>>

si va un pelino meno...

no costa un po di piu'

...consuma un po' meno... non la metà

1100000110100000
:)

felicex
09-03-2006, 21:40
ciao a tutti...io penso ke comunque le due skede si equvalgano,non guardiamo i benc ke sono a volte x una o per l'altra, ma alle varie situazioni in cui possoono essere utilizzate e cioe' se io uso un monitor(ovviamente ormai lcd...spero)da 15" 0 ...17"/19"(e qui sorgono i primi (1280x1024) dubbi xke' con AA anke al massimo non e' ke migliori di tanto .....l'immagine,in particolare se gioki e ti muovi...) o un 20" (1600x1200) e qui...ke cosa te ne fai dell'AA????? risposta....UN BEL NIENTE! allora compro NVIDIA ke mi da altri vantaggi... vedi opengl ,potenza bruta ecc. ecc. se invece devo usare una risoluzione 1024x768 o...1280x1024...(e qui incominciano a sorgere i primi dubbi)......compri ATI!ke con i filtri ci sa fare!

ps.
non sono un fan ne di ATI ne di NVIDIA ho le due schede montate in due pc separati (ke fortuna voi direte...ma mi servono anke x lavorare!AZZZZ!)(ati 1800 e nvidia 7800)uso monitor da 15"(1024x768)da 20"(1600x1200) da 26"(1280x768) e da 19"crt....

yossarian
09-03-2006, 21:46
Se non sbaglio però RV530 e R580 hanno anch'essi la possibilità di raddoppiare il fill rate nel caso di stencil ops :)

RV530 e R500; se non ricordo male la cosa non vale per R580

^TiGeRShArK^
09-03-2006, 21:56
Raga io non so voi ma sono rimasto un po deluso....
le 32 pipe che fine hanno fatto?avevano detto che ci sarebbero state.. e invece.. :mad:

si vabbè...
se fossero veri tutti i rumours ke escono su internet...
infatti kissà come mai ki tesseva le lodi del futuro G71 a 32 pipeline ke avrebbe stracciato ATI nella sua fantasia ora si mette a tessere le lodi del minore rumore di G71:asd:

Foglia Morta
09-03-2006, 22:03
RV530 e R500; se non ricordo male la cosa non vale per R580
e in un eventuale shrink di R580 a 80nm ci potrebbe stare ?

darklord77
09-03-2006, 22:05
IMHO la mia non è una accusa di cattiva fede, ma consentimi di puntare il dito contro una tendenza ormai consolidata di creare recensioni dando troppa importanza a sistemi dual VGA (che in pochi fan, si possono permettere e che sono un insulto al risparmio energetico), a scapito dell' utente più diffuso, ossia colui che guarda esclusivamente a sistemi singola VGA.

Il risultato è che i grafici degli score, sono molto confusi e acerbi da digerire.
Troppa carne al fuoco diviene difficilmente gestibile.
Come detto poco prima, a mio avviso tenere i bench in config. doppia VGA separatamente da quelli in singola e magari fare solo una media riepilogativa delle differenze fra doppia e singola gpu, gioverebbe molto alla chiarezza delle recensioni di Raffaele.
Recensioni che sicuramente costano un botto di fatica ma che perdono di efficacia per il modo in cui vengono redatte.
Tutto ovviamente imho.

quoto Bartolino...anche secondo me creano solo confusione..

:D manca il QUAD SLI

Leatherscraps
09-03-2006, 22:12
cosa ne penso ?

ps3 direttamente

al max mi compro un portatile per tutto ciò che non sia gioco

per la ps3 uno ci invecchia....... in europa arriverà tra circa 1 ANNO!!!!forse di più

Leatherscraps
09-03-2006, 22:15
DAL SITO ASUS LA 7900GT


EN7900GT Series/2DHT
EN7900GT TOP: 512M DDR3 :eek: :eek: :eek:
EN7900GT: 256M DDR3
ASUS Splendid Video Enhancing Technology
ASUS GameFace Messenger™
ASUS GameLiveShow
ASUS GameReplay
ASUS Video Security™ Online
ASUS OSD (OnScreenDisplay)


7900 gt a 512 che ne dite...?

yossarian
09-03-2006, 22:18
e in un eventuale shrink di R580 a 80nm ci potrebbe stare ?

si

^TiGeRShArK^
09-03-2006, 22:22
Se hai accuse da fare, parla più chiaramente...
tranquillo...bartolino ha avuto sempre da ridire sulle ottime recensioni di raffaele.....
ha sempre detto ke è di parte....:doh:

^TiGeRShArK^
09-03-2006, 22:24
Alla luce di questi risultati è sorprendente notare come nvidia può sulla carta tirare fuori una GPU con 48 pipe ed un consumo simile ad alla x1900XTX. Impressionante direi!
:mbe:
da cosa deduci ciò???:mbe:
hai la minima idea di cosa voglia dire progettare un chip video???:mbe:

^TiGeRShArK^
09-03-2006, 22:27
scusatemi, ma continuo a leggere che "ati vince con l'HDR" ..ma ne siamo cosi sicuri?

Direi che ormai il bench dell'HDR senza filtri non ha un valore reale, dato che tutte le ultime vga supportano HDR + AA direi che benchare solo con HDR è come benchare senza filtri... tutti i prossimi giochi supporteranno l'HDR con AA quindi è quello che è importante

l'unico gioco che al momento supporta HDR + AA e AF se non vado errato è Lost Coast (correggetemi se sbaglio) dove mi sembra che vada meglio la 7900 GTX

http://firingsquad.com/hardware/nvidia_geforce_7900_gt_gtx_performance/page9.asp
ATI vince con HDR+AA semplicemente perkè il chip nvidia non lo supporta nell'implementazione ke è + in voga oggi tra i game programmers....
è una precisa limitazione dell'arkitettura G70/71..
ATI ha già superato questa limitazione a partire da X18xx rendendo possibile l'attivazione di hdr+aa in tutte le situazioni.

Dante89
09-03-2006, 22:33
DAL SITO ASUS LA 7900GT


EN7900GT Series/2DHT
EN7900GT TOP: 512M DDR3 :eek: :eek: :eek:
EN7900GT: 256M DDR3
ASUS Splendid Video Enhancing Technology
ASUS GameFace Messenger™
ASUS GameLiveShow
ASUS GameReplay
ASUS Video Security™ Online
ASUS OSD (OnScreenDisplay)


7900 gt a 512 che ne dite...?
Penso che costerà di più della normale e sarà meno overclokkabile per via della maggior quantità di memoria :)

^TiGeRShArK^
09-03-2006, 22:34
Meno longevo nel senso che ATI ha proposto un refresh a pochissimo da R520, rendendo X1800, che in molti hanno pagato a prezzo pieno, una gpu di fascia medio/alta dopo poche settimane.
Nei confronti degli acquirenti ciò comporta un certo disappunto. Spendere 600 e passa euro per una X1800XT che dopo due mesi diventa gpu di fascia media...non è proprio bello.
xkè nvidia ke ha fatto nel passagfgio 7800gtx 512 --> 7900gtx???:fiufiu:

Leatherscraps
09-03-2006, 22:38
Penso che costerà di più della normale e sarà meno overclokkabile per via della maggior quantità di memoria :)

cavolo come meno overcloccabile! :doh:

allora scusa come fa la 7900gtx ad avere quelle freq? :mbe:

Il fatto è che per i giochi come oblivion per es per mettere tutto al max sono necessari 512mb.... mi sembra un controsenso quindi comperare ora una scheda da 256mb.... :confused: :O

p.s.
secondo voi farei una cavolata a dare via la mia 6800ultra per la 7900gt 512mb?

quanto potrei chiedere della mia vecchia scheda video secondo voi?

DVD2005
09-03-2006, 22:39
xkè nvidia ke ha fatto nel passagfgio 7800gtx 512 --> 7900gtx???:fiufiu:

la stessa cosa, o forse peggio in termini di euro.

DVD2005
09-03-2006, 22:44
secondo voi farei una cavolata a dare via la mia 6800ultra per la 7900gt 512mb?


se proprio volessi cambiare, andrei sulla x1900: la sua superiorità con i filtri la fa preferire a livello di scheda high-end.
io sono sempre stato con nvidia, tranne una parentesi (X800XT PE), però a questo giro è inutile che ce la raccontiamo in lunga e in larga Ati è più avanti tecnologicamente.

kenjcj2000
09-03-2006, 22:47
A me il risultato sembra molto chiaro:

- la scheda è a parimerito rispetto la x1900XTX (per me differenze del 10% non sono percepibili giocando)

- le due concorrenti partono alla pari come processo produttivo (90nm entranbe)

- la scheda nvidia consuma circa la metà, ha una superficie del die di circa la metà, ed un numero di transistor nettamente inferiore

=> ergo la scheda nvidia è nettamente più efficiente!

Quindi nvidia ha scelto di restare con 24 pipe ed ottenere la parità come prestazioni garantendo diversi vantaggi per gli utenti come il consumo ed il prezzo (o maggiore guadagno per scheda).
Leggendo da anni in questo sito direi che era quello che la maggioranza dei frequentatori di questo forum voleva quindi io do la vittoria netta ad nvidia.

Alla luce di questi risultati è sorprendente notare come nvidia può sulla carta tirare fuori una GPU con 48 pipe ed un consumo simile ad alla x1900XTX. Impressionante direi!

di 5-6 cose dette non mi trovi d^accordo su nulla :D record!!!

1_non consuma la metà basta dire fregnacce :D
2_sono a parimerito senza filtri sfido chiunque a spedere 500/600 e giocare senza filtri :confused:
3_non sò da cosa deduci che sia più efficente :confused:
4_alla luce di cosa dici questo? 48 pipe.. sulla carta....ma mi sono perso una rece delle prossime vga?

un punto vorrei mettere di mio: la 7900 come la 7800 non ha HDR+AA ho l^uno ho l^altro e scusate se è poco x una scheda di questa fascia, io sarò super critico ma mi aspettavo molto molto di più (anche se i rumor qualcosa dicevano..) sicuramente trovo più sensato un passaggio:
1800.1900
che un passaggio
7800.7900

mi ripeto la gt è una splendida (visto il costo) scheda ma la fascia alta x mè nò

DVD2005
09-03-2006, 22:52
di 5-6 cose dette non mi trovi d^accordo su nulla :D record!!!

1_non consuma la metà basta dire fregnacce :D
2_sono a parimerito senza filtri sfido chiunque a spedere 500/600 e giocare senza filtri :confused:
3_non sò da cosa deduci che sia più efficente :confused:
4_alla luce di cosa dici questo? 48 pipe.. sulla carta....ma mi sono perso una rece delle prossime vga?

un punto vorrei mettere di mio: la 7900 come la 7800 non ha HDR+AA ho l^uno ho l^altro e scusate se è poco x una scheda di questa fascia, io sarò super critico ma mi aspettavo molto molto di più (anche se i rumor qualcosa dicevano..) sicuramente trovo più sensato un passaggio:
1800.1900
che un passaggio
7800.7900

mi ripeto la gt è una splendida (visto il costo) scheda ma la fascia alta x mè nò

mi trovo d'accordo con te tranne che sul fatto che sia sensato lasciare una 1800 o una 7800.

bjt2
09-03-2006, 22:52
Il consumo è leggermente minore se consideri tutto il sistema.

Perchè dicono che la 7900 consuma la metà? Semplice: perchè il sistema con ___DUE___ GTX in SLI, consuma solo un po' di più del sistema con ___UNA___ 1900 XTX, ergo, la GTX consuma un po' più della metà di una 1900 XTX...

felicex
09-03-2006, 22:53
ripeto hdr+aa serve solo a risoluzioni 1024x768 o (e qui sorgono i primi dubbi..) 1280 x1024 a ....1600 x 1200 l'AA NON SERVE A NULLA!!!! xcui ati o nvidia vanno scelte a secondo dell'uso che se ne fa' o del monitor che si usa,una non prevale sull'altra xke'una fa bene una cosa (i filtri...x la bassa risoluzione)e l'altra un'altra(ha forza bruta ke ad alta risoluzione non ha bisogno di... AA) provate con tutte e due le schede e vari monitor ...e vi renderete conto "VISIVAMENTE" e non con i "numeri o pareri "che e' cosi'.
Aspettiamo le skede x x10 e poi vedremo..ciao a tutti

kenjcj2000
09-03-2006, 22:54
mi trovo d'accordo con te tranne che sul fatto che sia sensato lasciare una 1800 o una 7800.
sensato no (sono il solito deficente....) era inteso come prestazioni è tecnologia molta più differenza fra una 1800 e una 1900 che fra una 7800 e una 7900 poi chiaramente di sensato nelle pazzie non cè nulla :D

DVD2005
09-03-2006, 22:56
sensato no (sono il solito deficente....) era inteso come prestazioni è tecnologia molta più differenza fra una 1800 e una 1900 che fra una 7800 e una 7900 poi chiaramente di sensato nelle pazzie non cè nulla :D

allora concordiamo da cima a fondo ;)

kenjcj2000
09-03-2006, 22:58
ripeto hdr+aa serve solo a risoluzioni 1024x768 o (e qui sorgono i primi dubbi..) 1280 x1024 a ....1600 x 1200 l'AA NON SERVE A NULLA!!!! xcui ati o nvidia vanno scelte a secondo dell'uso che se ne fa' o del monitor che si usa,una non prevale sull'altra xke'una fa bene una cosa (i filtri...x la bassa risoluzione)e l'altra un'altra(ha forza bruta ke ad alta risoluzione non ha bisogno di... AA) provate con tutte e due le schede e vari monitor ...e vi renderete conto "VISIVAMENTE" e non con i "numeri o pareri "che e' cosi'.
Aspettiamo le skede x x10 e poi vedremo..ciao a tutti

ha 1280x1024 serve eccome se serve (io almeno l^ha vedo la differenza) non serve magari a 1600x1200

kenjcj2000
09-03-2006, 22:59
allora concordiamo da cima a fondo ;)
uè deficente a chi :incazzed: :D

^TiGeRShArK^
09-03-2006, 23:00
Incredibile ragazzi!!! Ho trovato la 7900GT e 7900GTX rispettivamente a 550/1630 e 665/1630 a 365€ e 569€ della XFX su un sito chiamato B.. :D . Premetto che sono un NVIDIA fanboy. Come già detto da qualcuno, sono daccordo sul fatto che con i filtri le ATi vanno alla grande, ma in fin dei conti l'efficienza delle 7900 è maggiore visto il minor numero di transistor.
:mbe:
e ke te ne fai del rapporto transistor/prestazioni???:mbe:
a nvidia conviene ke gli costano meno 'ste skede e poi te le fanno pagare cmq una barcata di soldi :D
ma a te nn penso ke ti entri niente in tasca dal minor numero di transistor..
senza contare il fatto ke non supportano hrd+aa in fp blending....

Dante89
09-03-2006, 23:01
cavolo come meno overcloccabile! :doh:

allora scusa come fa la 7900gtx ad avere quelle freq? :mbe:

Il fatto è che per i giochi come oblivion per es per mettere tutto al max sono necessari 512mb.... mi sembra un controsenso quindi comperare ora una scheda da 256mb.... :confused: :O

p.s.
secondo voi farei una cavolata a dare via la mia 6800ultra per la 7900gt 512mb?

quanto potrei chiedere della mia vecchia scheda video secondo voi?
Ma infatti se vedi la percentuale, le memorie della gt salgono molto di più di quelle della gtx, le schede della rece sono arrivate, da 650/1600 la gtx e 450/1320 la gt, a rispetttivamente 700/1660 e 560/1600 in percentuale la gtx è salita molto meno della gt, sopratutto sulle ram, del resto mica è una supposizione, più grossi sono i chip di memoria meno sono overclokkabili....e ti ricordo che la gt è senza dissy sulle ram, invece la gtx lo ha, sebbene sia in comune al core, è comunque moolto efficente :)

DVD2005
09-03-2006, 23:01
ha 1280x1024 serve eccome se serve (io almeno l^ha vedo la differenza) non serve magari a 1600x1200

quoto: c'è stata una "discussione nella discussione" a riguardo molto completa e la conclusione è stata che il filtro AA perde la sua efficacia a partire da 1600x1200,ma sotto occorre.

Dante89
09-03-2006, 23:03
ha 1280x1024 serve eccome se serve (io almeno l^ha vedo la differenza) non serve magari a 1600x1200
Io sul dellone gioco a 1920*1200 e l'utilizzo dell'antialiasing e l'anisotropico e dell'hdr è molto difficile da notare, a 1280*1024 si not atanto invece :)

DVD2005
09-03-2006, 23:03
uè deficente a chi :incazzed: :D

:D :D

kenjcj2000
09-03-2006, 23:06
quoto: c'è stata una "discussione nella discussione" a riguardo molto completa e la conclusione è stata che il filtro AA perde la sua efficacia a partire da 1600x1200,ma sotto occorre.

infatti parto dal presuposto (almeno credo) che a oggi la maggior parte degli utenti abbiano un monitor lcd e qui casca il morto :D la maggir parte di questi ha risoluzioni natie 1280x1024 .......penso che hai capito dove voglio cascare

kenjcj2000
09-03-2006, 23:07
Io sul dellone gioco a 1920*1200 e l'utilizzo dell'antialiasing e l'anisotropico e dell'hdr è molto difficile da notare, a 1280*1024 si not atanto invece :)

azzarola 1920x1200 :sofico:

DVD2005
09-03-2006, 23:08
infatti parto dal presuposto (almeno credo) che a oggi la maggior parte degli utenti abbiano un monitor lcd e qui casca il morto :D la maggir parte di questi ha risoluzioni natie 1280x1024 .......penso che hai capito dove voglio cascare

scheda rossa ?

kenjcj2000
09-03-2006, 23:08
scheda rossa ?

:confused:

DVD2005
09-03-2006, 23:10
:confused:


nvidia=verde
ati=rossa

kenjcj2000
09-03-2006, 23:12
nvidia=verde
ati=rossa

si allora ti eri spiegato benissimo si è rossa

felicex
09-03-2006, 23:13
ma! che a 1280 x 1024 hdr+aa serva cosi' tanto..non lo vedo...(anche xche' lavoro e gioco con tre monitor da 1024x768-1280x768-1600x1200 + un sony 19" crt)dicimo che e' una via di transizione x i 1600 x 1200 a cui non serve,allora xke' insistere su questa diatriba?...dipende sempre solo dalla risoluzione che si usa, ma se si ha un monitor 1600 x 1200...si va dritti su NVIDIA ...che offre altri vantaggi.

yossarian
09-03-2006, 23:16
ma! che a 1280 x 1024 hdr+aa serva cosi' tanto..non lo vedo...(anche xche' lavoro e gioco con tre monitor da 1024x768-1280x768-1600x1200 + un sony 19" crt)dicimo che e' una via di transizione x i 1600 x 1200 a cui non serve,allora xke' insistere su questa diatriba?...dipende sempre solo dalla risoluzione che si usa, ma se si ha un monitor 1600 x 1200...si va dritti su NVIDIA ...che offre altri vantaggi.

per esempio?

kenjcj2000
09-03-2006, 23:18
ma! che a 1280 x 1024 hdr+aa serva cosi' tanto..non lo vedo...(anche xche' lavoro e gioco con tre monitor da 1024x768-1280x768-1600x1200 + un sony 19" crt)dicimo che e' una via di transizione x i 1600 x 1200 a cui non serve,allora xke' insistere su questa diatriba?...dipende sempre solo dalla risoluzione che si usa, ma se si ha un monitor 1600 x 1200...si va dritti su NVIDIA ...che offre altri vantaggi.

in tutta sincerità non capisco tu dove vuoi cascare :confused:

kenjcj2000
09-03-2006, 23:26
Il consumo è leggermente minore se consideri tutto il sistema.

Perchè dicono che la 7900 consuma la metà? Semplice: perchè il sistema con ___DUE___ GTX in SLI, consuma solo un po' di più del sistema con ___UNA___ 1900 XTX, ergo, la GTX consuma un po' più della metà di una 1900 XTX...

allora facciamo un pò di calcoli (ditemi se ho riportato male i test :)

1900 gt consumi ....264/110
7900 xtx consumi....184/103

allora in idle mi dovete spiegare tutta questa differenza 103/110 sotto stress la differenza di consumo è intorno al 30% in più da parte della 1900xtx (motivo del mio PERSONALISSIMO calcolo intorno al 15% avevo fatto una specie di media forse sbagliando magari) io mi ripeto chi compra queste schede non nè pò fregare di meno dei consumi nemmeno se consumassero il doppio ma visto che non è cosi non vedo nemmeno il motivo di porre il problema

MaBru
09-03-2006, 23:27
Se non sbaglio però RV530 e R580 hanno anch'essi la possibilità di raddoppiare il fill rate nel caso di stencil ops :)
None. Solo RV530 e solo in presenza di AA.

^TiGeRShArK^
09-03-2006, 23:29
Concordo pienamente con chi prima di me sosteneva che i test singola scheda e quelli sli\cf dovrebbero essere fatti separatamente.
Non si capisce veramente una mazza.
Comunque 7900 gt bellissima scheda.......anche in overclok anche se credo che mi farò una x1800xt 256 mb a brevissimo...visti i tagli di prezzo...imminenti.
Se ati fosse riuscita ad implementare le 24 pipe su queste schede.......Nvidia poteva pure chiudere quest'anno........
Comunque la cosa piu bella degli ultimi tempi è il taglio selvaggio dei prezzi.......ci voleva proprio !!!!
Aspettiamo qualche giorno per vedere come si comporta x1800gto e poi passo all'acquisto.......
è un male se una delle due case chiude......
è la cosa peggiore ke ci possa capitare..
si è visto ai tempi del monopolio nvidia come andavano le cose..:muro:

Foglia Morta
09-03-2006, 23:31
Ma infatti se vedi la percentuale, le memorie della gt salgono molto di più di quelle della gtx, le schede della rece sono arrivate, da 650/1600 la gtx e 450/1320 la gt, a rispetttivamente 700/1660 e 560/1600 in percentuale la gtx è salita molto meno della gt, sopratutto sulle ram, del resto mica è una supposizione, più grossi sono i chip di memoria meno sono overclokkabili....e ti ricordo che la gt è senza dissy sulle ram, invece la gtx lo ha, sebbene sia in comune al core, è comunque moolto efficente :)
ho letto un po di overclocker che ritengono che le ram salgono meglio senza dissi , quindi si direbbe che il dissipatore si faccia riscaldare molto di più dalla gpu e a sua volta trasferirebbe parte del calore sulle ram

felicex
09-03-2006, 23:33
forse sono stato frainteso..non voglio cascare su nulla,ma solo riflettere con Voi che in fondo ora come ora ...le due tecnologie sono arrivate al capolinea e per poter trarne dei vantaggi tangibili (o risicati?)non puoi che arrampicarti sugli specchi x dartene una ragione,ora come ora x chi ha una 1xxx o 6/7xxx puo' rimanere al capolinea ed attendere le schede x X10...tutto qui.

Free Gordon
09-03-2006, 23:34
Secondo me, a giudicare dalla pesantezza annunciata del gioco, nessuna scheda potrà usarli insieme e basta :)


Sulle Ati x1x00 e su Xbox360. ;)
Su 360 gira sui 30fps a 1280x720, sulle x1900 saremo lì.

Sempre con AA + HDR ovviamente (solo che su 360 è in FP10)

Foglia Morta
09-03-2006, 23:36
forse sono stato frainteso..non voglio cascare su nulla,ma solo riflettere con Voi che in fondo ora come ora ...le due tecnologie sono arrivate al capolinea e per poter trarne dei vantaggi tangibili (o risicati?)non puoi che arrampicarti sugli specchi x dartene una ragione,ora come ora x chi ha una 1xxx o 6/7xxx puo' rimanere al capolinea ed attendere le schede x X10...tutto qui.
però la tecnologia di R580 con i giochi attuali non può ancora mostrare il meglio di sè, ci vorrà un po di tempo perchè si realizzi la differenza delle tecnologie di queste schede

^TiGeRShArK^
09-03-2006, 23:40
7900GT = La migliore scheda mai prodotta per rapporto qualità/prezzo ... la nuova Ti4200!!

Ordinata a 299€ !!
anke la x1800xt da 256 mb costa + o - uguale...
in media va d + e supporta anke hdr+aa in modalità fp blending.....
la migliore skeda mai prodotta x rapporto qualità prezzo è la 9500pro moddabile se proprio vogliamo fare i pignoli..altro ke gf4 ti 4200....

kenjcj2000
09-03-2006, 23:46
forse sono stato frainteso..non voglio cascare su nulla,ma solo riflettere con Voi che in fondo ora come ora ...le due tecnologie sono arrivate al capolinea e per poter trarne dei vantaggi tangibili (o risicati?)non puoi che arrampicarti sugli specchi x dartene una ragione,ora come ora x chi ha una 1xxx o 6/7xxx puo' rimanere al capolinea ed attendere le schede x X10...tutto qui.
questo è tutto un altro discorso e puoi pure avere ragione ma ati con le 1900 qualcosa di nuovo a portato x questo aspettavo qualcosa pure da nvidia tutto li