PDA

View Full Version : nVidia FX5950ultra primi bench


KarmaP
23-10-2003, 10:46
Stanno iniziando a girare i primi bench della FX5950ULTRA (NV38) dateci un'occhiata:
1 FX5950ULTRA (http://www.nordichardware.se/recensioner/grafikkort/2003/FX-Mani/)
2 NV38 (http://www.neoseeker.com/Articles/Hardware/Reviews/fx5950ultra/index.html)

Ed ecco anche quelli della FX5700ULTRA/LISCIA:

NV36 & NV38 1 ottima (http://www.digit-life.com/articles2...ml/nv38-36.html )
NV36 & NV38 2 (http://www.guru3d.com/article/Videocards/88/)

checo
23-10-2003, 12:43
un nv35 overcloccato alla fine

Cfranco
23-10-2003, 12:49
Questa é bellissima :asd:
http://www.nordichardware.se/recensioner/grafikkort/2003/FX-Mani/elite_thumb.jpg

KarmaP
23-10-2003, 13:23
Originariamente inviato da Cfranco
Questa é bellissima :asd:
http://www.nordichardware.se/recensioner/grafikkort/2003/FX-Mani/elite_thumb.jpg

L:D L

prova
23-10-2003, 13:24
http://forum.ngi.it/smiles/rotfl.gif http://forum.ngi.it/smiles/rotfl.gif http://forum.ngi.it/smiles/rotfl.gif

yossarian
23-10-2003, 13:34
Originariamente inviato da checo
un nv35 overcloccato alla fine


si; invece sarebbero interessanti i test della 5700 che dovrebbe avere, rispetto alla 5600, un'unità di calcolo FP in più (e una FX in meno) per ogni pipeline (stessa modifica fatta nel passaggio da 5800 a 5900); questo dovrebbe garantire un buon boost di prestzioni con i PS2.0.

ciao

Simon82
23-10-2003, 14:11
L'ho un po' modificata.. :O

:D:D:D:D:D:D


(vedi allegato)

AURON_OMEGA
23-10-2003, 14:17
che sfigati alla nvidia...non riescono ancora a superare la 9800pro ahahahhah:sofico:

KarmaP
23-10-2003, 14:44
Originariamente inviato da yossarian
si; invece sarebbero interessanti i test della 5700 che dovrebbe avere, rispetto alla 5600, un'unità di calcolo FP in più (e una FX in meno) per ogni pipeline (stessa modifica fatta nel passaggio da 5800 a 5900); questo dovrebbe garantire un buon boost di prestzioni con i PS2.0.

ciao

Io i test della 5700 (vers liscia e ultra) li ho già visti e ti posso dire che l'aumento rispetto alla 5600 c'è, ma cmq il guadagno non è molto (resta dietro in fatto di prestazioni alla 9600XT [la 9600PRO nei test non c'era]), purtroppo, essendo previsto il rilascio ufficiale nella giornata di lunedì, il link non è più funzionante.

Verro
23-10-2003, 15:12
interessante, ma erano già usciti da tempo test sulla nuova Nv38:)

KarmaP
23-10-2003, 15:49
Originariamente inviato da Verro
interessante, ma erano già usciti da tempo test sulla nuova Nv38:)
Ed ecco anche quelli della FX5700ULTRA:

http://www.guru3d.com/article/Videocards/88/
http://www.digit-life.com/articles2/gffx/nv38-36.html/nv38-36.html

(p.s. questi sono ufficiali, è da oggi che parte la distribuzione del prodotto)

Verro
23-10-2003, 15:53
Originariamente inviato da KarmaP
Ed ecco anche quelli della FX5700ULTRA:

http://www.guru3d.com/article/Videocards/88/
http://www.digit-life.com/articles2/gffx/nv38-36.html/nv38-36.html

(p.s. questi sono ufficiali, è da oggi che parte la distribuzione del prodotto)

questi non li avevo mai visti, thx!:)

yossarian
23-10-2003, 17:03
Originariamente inviato da KarmaP
Ed ecco anche quelli della FX5700ULTRA:

http://www.guru3d.com/article/Videocards/88/
http://www.digit-life.com/articles2/gffx/nv38-36.html/nv38-36.html

(p.s. questi sono ufficiali, è da oggi che parte la distribuzione del prodotto)


Ok, grazie; quello che mi interessava era vedere i risultati di 5600 e 5700 con PS2.0 (con le DX8.1 le modifiche apportate al chip non sono efficaci, anzi, paradossalmente, con codice PS8.x potrebbero portare dei peggioramenti rispetto alla 5600). Comunque ho avuto la conferma di quello che pensavo e cioè che il rapporto tra 5700 e 5600 è dello stesso ordine di quello tra 5900 e 5800.

Grazie

;)

Afexer
23-10-2003, 17:19
Come prestazioni la 9800xt si mantiene al di sopra, a questo punto dobbamo solo vedere i prezzi:rolleyes:

CS25
23-10-2003, 17:24
Considerazione prezzi :
Fx 5950 ultra 256 mb 399$
Radeon 9800XT 256 mb 499$

:eek:

Commento personale : s'e' rovesciato il mondo :eek:

rera
23-10-2003, 17:33
Originariamente inviato da CS25


Commento personale : s'e' rovesciato il mondo :eek:


penso anch'io........

chissà se anche in europa sarà così.......

Thunder82
23-10-2003, 17:41
Originariamente inviato da CS25
Considerazione prezzi :
Fx 5950 ultra 256 mb 399$
Radeon 9800XT 256 mb 499$

:eek:

Commento personale : s'e' rovesciato il mondo :eek:

Appunto!
Senza contare che le 5700ultra sono vendute a 199$, con le ddr2 e un pcb molto complesso :eek:
Finalmente nVidia ha capito che deve abbassare i prezzi, speriamo che anche ati la segua.
Cmq sono rimasto piacevolmente sorpreso dalla 5700 ultra, in molti casi va il doppio della 5600 ultra, a volte anche di più
:)

Afexer
23-10-2003, 17:45
Vabbè visto che al momento l'euro si mantiene più forte rispetto al dollaro dovremmo pagare circa 400€ per una Geforce 5950 quindi non è male come prezzo.

-=Krynn=-
23-10-2003, 17:55
Originariamente inviato da CS25
Considerazione prezzi :
Fx 5950 ultra 256 mb 399$
Radeon 9800XT 256 mb 499$

:eek:

Commento personale : s'e' rovesciato il mondo :eek:

ecco, finalmente nvidia s'è decisa ad attuare una polita prezzi aggressiva, come faceva ati quando la 8500 non era all'altezza delle concorrenti.

Con quel prezzo anche nv38 diventa competitivo, imho.

halduemilauno
23-10-2003, 18:01
ciao.
http://www.hothardware.com/hh_files/S&V/geforcefx_5950u.shtml

http://www.hothardware.com/hh_files/S&V/geforcefx_5700.shtml

andreamarra
23-10-2003, 18:13
Ma la qualità dei filtri? E le magagne nelle dx9?

Raven
23-10-2003, 18:17
Originariamente inviato da AURON_OMEGA
che sfigati alla nvidia...non riescono ancora a superare la 9800pro ahahahhah:sofico:

Cerchiamo di non far chiudere subito la discussione causa flame... :rolleyes:

andreamarra
23-10-2003, 18:28
Originariamente inviato da andreamarra
Ma la qualità dei filtri? E le magagne nelle dx9?


Si sa qualcosa...? :(

Dark Schneider
23-10-2003, 18:40
La GeForce FX 5700 Ultra è una scheda molto interessante se il prezzo è 199(anche se qui poi c'è l'iva..chissà).
Però una domanda mi sorge: visto che nell'ultimo periodo non mi son aggiornato: si può dire che la 5700 Ultra è un quasi 5800 rimarchiato? Il Core è basato sul NV36 che proviene dal NV35 se ricordo ok, però le feature mi sembrano da 5800 o sbaglio? Le freuqneze + o - son quelle per GPU e memoria...che son anche DDR2. Ma è una variante della 5800 in pratica?

rera
23-10-2003, 18:43
sto leggendo la recensione di hard-ocp.
Sembra ce l'abbiano con i detonator più che altro.

CS25
23-10-2003, 18:43
La recensione su digit-life mostra shots comparativi tra radeon ed FX proprio per fugare dubbi al riguardo.

http://www.digit-life.com/articles2/gffx/nv38-36.html/nv38-36.html

Al di la' di Half Life 2 (col quale non esprimono giudizi poiche' e' ben lungi dall'essere rilasciato), negli altri giochi le cose vanno abbastanza bene.
Ci sono dei piccoli bug in RTCW e in Unreal 2, per il resto la resa sembra identica. Discorso a parte sui filtri, le cose non sono cambiate : antialiasing migliore per Ati, anisotropico marginalmente migliore per Nvidia, pero' niente piu' trucchi in UT2003 per quest'ultima.

yossarian
23-10-2003, 18:49
Originariamente inviato da Dark Schneider
La GeForce FX 5700 Ultra è una scheda molto interessante se il prezzo è 199(anche se qui poi c'è l'iva..chissà).
Però una domanda mi sorge: visto che nell'ultimo periodo non mi son aggiornato: si può dire che la 5700 Ultra è un quasi 5800 rimarchiato? Il Core è basato sul NV36 che proviene dal NV35 se ricordo ok, però le feature mi sembrano da 5800 o sbaglio? Le freuqneze + o - son quelle per GPU e memoria...che son anche DDR2. Ma è una variante della 5800 in pratica?

assolutamente no;

la 5800 è una 4x2 TMU con 1 unità di calcolo FP32 e 2 unità FX12
la 5600 è una 4x1 TMU con 1 unità di calcolo FP32 e 2 unità FX12
la 5700 è una 4x1 TMU con 2 unità di calcolo FP32 2 1 unità FX12 o, forse, con 3 unità FP32.
La 5900 ha le stesse caratteristiche della 5700, però ha bus a 256 bit ed è una 4x2.

In parole povere la 5800 è parente stretta della 5600 e la 5900 lo è della 5700.

Dark Schneider
23-10-2003, 18:53
Originariamente inviato da yossarian
assolutamente no;

la 5800 è una 4x2 TMU con 1 unità di calcolo FP32 e 2 unità FX12
la 5600 è una 4x1 TMU con 1 unità di calcolo FP32 e 2 unità FX12
la 5700 è una 4x1 TMU con 2 unità di calcolo FP32 2 1 unità FX12 o, forse, con 3 unità FP32.
La 5900 ha le stesse caratteristiche della 5700, però ha bus a 256 bit ed è una 4x2.

In parole povere la 5800 è parente stretta della 5600 e la 5900 lo è della 5700.


Ah ecco è una 4x1 e non una 4x2 come la 5800 e 5900.
Grazie per l'info, ultimamente non mi ero granchè aggiornato! :)

Smasher_Devourer
23-10-2003, 19:06
Originariamente inviato da CS25
La recensione su digit-life mostra shots comparativi tra radeon ed FX proprio per fugare dubbi al riguardo.

http://www.digit-life.com/articles2/gffx/nv38-36.html/nv38-36.html

Al di la' di Half Life 2 (col quale non esprimono giudizi poiche' e' ben lungi dall'essere rilasciato), negli altri giochi le cose vanno abbastanza bene.
Ci sono dei piccoli bug in RTCW e in Unreal 2, per il resto la resa sembra identica. Discorso a parte sui filtri, le cose non sono cambiate : antialiasing migliore per Ati, anisotropico marginalmente migliore per Nvidia, pero' niente piu' trucchi in UT2003 per quest'ultima.
Beh Tom's stavolta accusa addirittura ATi di ottimizzazioni illecite in Ut2003 e Aquamark (provandolo addirittura per aquamark con tanto di immagini e animazione)!!!
Ok Tom's è pro-Nv ma qui mi sa che iniziamo a superare i limiti da tutte e due le parti!!!

firmus
23-10-2003, 19:10
Finalmente prezzi + ragionevoli..in linea con le prestazioni..

Legolas84
23-10-2003, 19:19
Sono i prezzi giusti... Ati ha il modello di punta e lo vende a 500 Euro (meno di come costava la TI 4600 appena uscita...)

Le nvidia vanno meno e quindi costano meno... non si è inversato il mondo... se mai è andato apposto... ATi ora è meglio e ATi costa di più....

rera
23-10-2003, 19:19
hard ocp riporta prezzi di 499$ per entrambe.
certo che per essere due overclock di schede esistenti costano un po'.......

NightStalker
23-10-2003, 21:19
Originariamente inviato da rera
hard ocp riporta prezzi di 499$ per entrambe.
certo che per essere due overclock di schede esistenti costano un po'.......

la 5700 Ultra rispetto alla 5600 Ultra è tutto un'altra scheda, non direi proprio che è un overclock.

Come diceva giustamente Yossarian, la 5700 sta a una "mini" 5900 così come la 5600 stava a una "mini" 5800.

DjLode
23-10-2003, 21:20
Originariamente inviato da Smasher_Devourer
Beh Tom's stavolta accusa addirittura ATi di ottimizzazioni illecite in Ut2003 e Aquamark (provandolo addirittura per aquamark con tanto di immagini e animazione)!!!
Ok Tom's è pro-Nv ma qui mi sa che iniziamo a superare i limiti da tutte e due le parti!!!

Se le ottimizzazioni sono illecite, ben vengano le dimostrazioni, poi starà alla persona decidere se fidarsi o no. Personalmente ritengo che chi ottimizza in maniera sporca è paragonabile ad uno sportivo che si dopa.

NightStalker
23-10-2003, 21:22
Originariamente inviato da DjLode
Personalmente ritengo che chi ottimizza in maniera sporca è paragonabile ad uno sportivo che si dopa.


o a un dopato che fa sport.... ASDASDASDASDASDASD (da dove mi vengono ste battute...).

rera
23-10-2003, 21:26
x NightStalker:

mi riferivo a 9800xt e 5950.
la 5700 è un'altro discorso.:)

Cfranco
24-10-2003, 09:14
Originariamente inviato da yossarian
la 5600 è una 4x1 TMU con 1 unità di calcolo FP32 e 2 unità FX12

A me risulta che la 5600 sia una 2x2 ( una 5800 dimezzata insomma ) e che le specifiche "4x1" siano le stesse che spacciavano la 5800 come una 8x1 .

Simon82
24-10-2003, 09:16
Ma su Digit Life usano la beta di Hl2? Proprio come successe per Doom3.. che pagliacciata manovrata.. beta rubate?.. bah.. :rolleyes:

Cfranco
24-10-2003, 09:36
Originariamente inviato da CS25
La recensione su digit-life mostra shots comparativi tra radeon ed FX proprio per fugare dubbi al riguardo.

Da vedere anche questo (http://www.3dcenter.de/artikel/detonator_52.14/index_e.php) , che solleva dubbi sul filtro trilineare dei Detonator 52.xx .

CS25
24-10-2003, 10:04
Da quello che vedo parlano dei 52.14, non dei 52.16.
Nei 52.16 il trilinear c'e' quando deve esserci, motivo per il quale le fx hanno perso qualche fps propio in UT2003, l'unico gioco in cui applicavano il bilinear adattivo anche quando si voleva il trilinear ;)

rera
24-10-2003, 10:09
comunque hard-ocp sostiene che in modalità applicazione il trilineare non viene applicato in pieno in Unreal Tournament e non solo (det. 52.16)

CS25
24-10-2003, 10:53
L'ho appena letto e lo dicono solo di UT2003, in contrasto tra l'altro con cio' che hanno rilevato altri siti web (digit-life).
A chi dare retta? :confused:

Smasher_Devourer
24-10-2003, 10:57
Originariamente inviato da CS25
A chi dare retta? :confused:
E' proprio questo il problema...ormai la maggior parte dei siti sono palesemente schierati e si contraddicono a vicenda!
Che bella situazione!! Aspettiamo una bella rece del Corsini sulla qualità video così da toglierci ogni dubbio!

Afexer
24-10-2003, 11:10
Sisi, sono propio d'accordo così vediamo anche se Nvidia questa volta è riuscita a fare un calcolo delle ombre decente senza una perdita di prestazioni.

rera
24-10-2003, 11:14
questo sostiene hard-ocp:

In this new 52.16 driver it seems NVIDIA has gone one step further and has forced their lessened Trilinear Filtering on every Direct3D application, and the user cannot correct it.


mi sa che ormai il solo modo di giudicare una scheda è installarla e provarla, o almeno vederla dal vivo installata, se no si diventa matti, imho.

Smasher_Devourer
24-10-2003, 11:21
Originariamente inviato da rera
questo sostiene hard-ocp:

In this new 52.16 driver it seems NVIDIA has gone one step further and has forced their lessened Trilinear Filtering on every Direct3D application, and the user cannot correct it.


mi sa che ormai il solo modo di giudicare una scheda è installarla e provarla, o almeno vederla dal vivo installata, se no si diventa matti, imho.
Infatti Hardopc è un noto sito anti Nv così come Tom è noto per essere pro Nv: uno dice una cosa l'altro il completo opposto (che i driver ati forzano il bilinear anche se l'utente sceglie trilinear)
Chi ha ragione???
Personalmente attendo l'articolo di Anand (che mi è sempre sembrato piuttosto superpartes) sulla qualità delle schede.

CS25
24-10-2003, 11:24
La cosa piu' divertente e' che se fate una ricerca sul forum vi accorgete che i commenti riguardo Hardocp erano DIAMETRALMENTE OPPOSTI qualche mese fa : era considerato spudoratamente PRO NVIDIA!

Al che, se volete una recensione fatta come cristo comanda, vi consiglio www.digit-life.com.

KarmaP
24-10-2003, 11:30
Originariamente inviato da CS25
La cosa piu' divertente e' che se fate una ricerca sul forum vi accorgete che i commenti riguardo Hardocp erano DIAMETRALMENTE OPPOSTI qualche mese fa : era considerato spudoratamente PRO NVIDIA!

Al che, se volete una recensione fatta come cristo comanda, vi consiglio www.digit-life.com.

Quoto ;) anche per la recensione che è la migliore in assoluto.

Afexer
24-10-2003, 11:39
bhe, è sempre meglio che si aspettino dei driver ottimizzati prima di effettuare qualsiasi bench

Smasher_Devourer
24-10-2003, 11:48
Originariamente inviato da CS25
Al che, se volete una recensione fatta come cristo comanda, vi consiglio www.digit-life.com.
Grazie...devo ammettere che è decisamente ben fatta (anche se i loro win-defeat sono un pochino arbitrari...spesso Nv va meglio senza filtri ma perde con l'applicazione degli stessi...cmq una delle migliori recensioni senza dubbio).
Parlando di qualcosina di più tecnico: chi prova a spiegarmi perchè Nv perde così tanto nell'applicazione dei filtri? problemi di architettura oppure di algoritmi?

rera
24-10-2003, 11:52
Originariamente inviato da Smasher_Devourer
Parlando di qualcosina di più tecnico: chi prova a spiegarmi perchè Nv perde così tanto nell'applicazione dei filtri? problemi di architettura oppure di algoritmi?

mi sa che sul tecnico ci vorrebbe yossarian........

CS25
24-10-2003, 12:09
Originariamente inviato da Smasher_Devourer
Grazie...devo ammettere che è decisamente ben fatta (anche se i loro win-defeat sono un pochino arbitrari...spesso Nv va meglio senza filtri ma perde con l'applicazione degli stessi...cmq una delle migliori recensioni senza dubbio).
Parlando di qualcosina di più tecnico: chi prova a spiegarmi perchè Nv perde così tanto nell'applicazione dei filtri? problemi di architettura oppure di algoritmi?

Filtri : argh, un casino.

Le perdite maggiori le ha con anisotropic filtering, perche' a differenza di Ati che "scala" il filtro a determinate inclinazioni, Nvidia in modalita' "quality" lo applica sempre e comunque alla massima qualita'.
Di fondo si crea un grosso problema nel confrontare i filtri delle proposte Ati e Nvidia :

- l'aa 2x di Ati e Nvidia e' uguale, entrambi ottenuti con rotated grid multisampling
- l'aa 4x di Ati usa sempre il rotated, non si sa perche' Nvidia invece usa l'ordinated grid dal 4x in su. Cio' significa che la qualita' e' inferiore.

Tesi : testare le nvidia col 4xs che pero' e' piu' lento perche' Nvidia non supporta in hw il rotated a 4x?

- l'anisotropico "quality" di Nvidia e' mgliore del "quality" di Ati
- l'anisotropico "performance" di Nvidia e' peggiore del quality di Ati
- l'anisotropico "performance" di Ati e' peggiore del "performance" di Nvidia
- l'anisotropico "best performance" di Nvidia e' peggiore del "performance" di Ati.

Tesi : testare le Nvidia in modalita' quality che pero' e' piu' lento perche' viene applicato sempre, o testare in modalita' performance e avvantaggiarla con un filtro peggiore di quello Ati?

In poche parole e tante emicranie, e' un CASINO trovare modalita' confrontabili in quanto o punisci una scheda facendole fare migliore qualita' e peggiore velocita', o viceversa.
Te lo dice uno che tutte le volte che ha scritto una recensione, s'e' ammattito a replicare tutti i bench in almeno 2 modalita' differenti (quality e performance) per cercare di dare dati un pelo completi.

rera
24-10-2003, 12:28
cs25 stai diventando un mostro.........
grazie per la spiegazione:)

checo
24-10-2003, 12:33
Originariamente inviato da yossarian
Ok, grazie; quello che mi interessava era vedere i risultati di 5600 e 5700 con PS2.0 (con le DX8.1 le modifiche apportate al chip non sono efficaci, anzi, paradossalmente, con codice PS8.x potrebbero portare dei peggioramenti rispetto alla 5600). Comunque ho avuto la conferma di quello che pensavo e cioè che il rapporto tra 5700 e 5600 è dello stesso ordine di quello tra 5900 e 5800.

Grazie

;)

infatti una deriva da nv30 e una da nv35.

il brutto è che tutte derivano da nv30

Smasher_Devourer
24-10-2003, 12:56
Originariamente inviato da rera
cs25 stai diventando un mostro.........
grazie per la spiegazione:)
Quoto...grazie per la spiegazione!
Se posso dire la mia penso che non abbia molto senso confrontare ingrandimenti di immagini statiche per cercare delle lievissime differenze: mentre si gioca (fine ultimo non dimentichiamolo) non si noterebbero mai e poi mai; ciò non toglie che avere una qualità migliore non farebbe schifo a nessuno per cui ben vengano queste comparative.

rera
24-10-2003, 13:35
sui rilievi di tom's hardware contro ati c'è un articolo su elitebastards.

yossarian
24-10-2003, 13:41
Originariamente inviato da Cfranco
A me risulta che la 5600 sia una 2x2 ( una 5800 dimezzata insomma ) e che le specifiche "4x1" siano le stesse che spacciavano la 5800 come una 8x1 .


Per le 5600 e 5700, contrariamente a quanto avveniva per la 5800 (e per la 5900), i dati in single e multitexturing confermano l'architettura 4x1; si evince, in particolare, dal dato del single texturing, dove ottiene risultati (quasi 1400 Mtexels/sec per la 5600 Ultra e poco sopra i 1500 per la 5700 Ultra) non raggiungibili con un'architettura con 2 pipeline. I dati "strani" si ottengono quando si applicano più textures; in particolare, in valore assoluto, si registra uno strano andamento nel passaggio da 2 a 3 textures per pixel, che ha indotto alcuni (ad esempio Baumann di Beyond3D) ad ipotizzare che in casi particolari, si comporti da 2x2. La spiegazione potrebbe essere plausibile, però non mi convince del tutto, perchè un'architettura 2x2 è svantaggiata rispetto ad una 4x1, in ogni caso e, il ricorso ad essa, potrebbe essere giustificato solo da problemi interni (come ad esempio i noti problemi relativi ai registri che sono stati confermati definitivamente da un'accyrata analisi fatta proprio da Baumann, che mostra come le FX derivate dall'NV35 (quindi con CineFX2) abbiano la necessità di lavorare, qualora adoperino i PS2.0, in FP16, ossia in partial precision, per non veder dimezzato il fillrate complessivo.

yossarian
24-10-2003, 13:46
Originariamente inviato da checo
infatti una deriva da nv30 e una da nv35.

il brutto è che tutte derivano da nv30


purtroppo si; le serie derivate da NV35 rappresentano il tentativo di aggiustare una situazione molto poco favorevole; però si trascinano dietro il retaggio di tutti queli problemi che non potevano essere risolti da una semplice revisione del chip.

yossarian
24-10-2003, 13:54
Originariamente inviato da rera
cs25 stai diventando un mostro.........
grazie per la spiegazione:)


aggiungo a quanto detto da CS25 che l'AA 2x non ha molto senso, in quanto, per la natura stessa dell'algoritmo, fare la media dei valori prendendo solo 2 campioni adiacendi al pixel da cui eliminare gli artefatti, porta a risultati a dir poco mediocri; perciò, per avere un discreto filtraggio, si deve partire da 4x.
Inoltre, un conto è il comportamento a tutte le risoluzioni, una volta attivati i filtri, un altro è quello alle alte risoluzioni. In relazione a quest'ultimo, c'è da rilevare un comportamento anomalo dell'NV35 e dell'NV38, rispetto all'R3x0, in diversi test; poichè l'NV35 ha maggior bendwidth dell'R350, ci si dovrebbe aspettare, ad alte risoluzioni, un più marcato calo dell'R3x0; invece, in molti casi, si verifica il contrario. Questo può avere due giustificazioni: problemi nell'elaborazione (sempre legati all'insufficienza dei registri, più evidente quando ci sono in gioco quantità maggiori di parametri); più efficiente algoritmo di HSR implementato da ATi, che, sulla serie R300, ha per la prima volta utilizzato un algoritmo (l'Early-z Ttest) che effettua la comparazione dei valori dello z-buffer alla display resolution. Per chi questo termine dicesse poco o niente, preciso che si tratta di un metodo non molto differente dal Tile Based Rendering visto sul Kyro2.

Cfranco
24-10-2003, 14:34
Originariamente inviato da yossarian
Per le 5600 e 5700, contrariamente a quanto avveniva per la 5800 (e per la 5900), i dati in single e multitexturing confermano l'architettura 4x1; si evince, in particolare, dal dato del single texturing, dove ottiene risultati (quasi 1400 Mtexels/sec per la 5600 Ultra e poco sopra i 1500 per la 5700 Ultra) non raggiungibili con un'architettura con 2 pipeline. I dati "strani" si ottengono quando si applicano più textures; in particolare, in valore assoluto, si registra uno strano andamento nel passaggio da 2 a 3 textures per pixel, che ha indotto alcuni (ad esempio Baumann di Beyond3D) ad ipotizzare che in casi particolari, si comporti da 2x2.

:wtf:
Le specifiche dei chip NV3x non sono mai state divulgate vero ?
Mi sa che hanno una struttura interna molto diversa dal solito ...
Erano bei tempi quando si bastavano il fill-rate e la banda passante per dire tutto di una scheda e si sapeva già come andava .

rera
24-10-2003, 14:38
nelle tabelle di pc professionale nv30 ha 8 pipelines, così come nv35.

yossarian
24-10-2003, 15:03
Originariamente inviato da Cfranco
:wtf:
Le specifiche dei chip NV3x non sono mai state divulgate vero ?
Mi sa che hanno una struttura interna molto diversa dal solito ...
Erano bei tempi quando si bastavano il fill-rate e la banda passante per dire tutto di una scheda e si sapeva già come andava .

Di ufficiale c'è poco, però, in ogni caso, le specifiche sono ormai note (almeno agli addetti ai lavori). L'NV30 e l'NV35, a detta di nVIDIA, sono in grado di elaborare 8 istruzioni texture per ciclo di clock, però operano con quad di pixel in input, che vendgono splittate in 4 pixel separati una volta all'inerno delle pipelines. Anche l'output è a 8 pixels e, di conseguenza, l'architettura è una 4x2 che in nessun caso è in grado di elaborare texture per 8 pixel per single pass (come confermato anche dai dati sperimentali).
Il problema con le VGA attuali (non solo con le FX, ma dal Kyro2 in poi) è il calcolo del fillrate in multitexturing. Non è più possibile basarsi su dati teorici, poichè, ad esempio, un chip DX9 compliant, può applicare fino a 16 textures per pixel pe single pass, sfruttando operazioni di loop-back interne. Una volta bastava contare il numero di TMU per pipeline, per sapere quante texture sarebbero state elaborate per single pass, adesso, i dati teorici e quelli sperimentali tendono a convergere solo per single texturing.
Ovviamente, la conseguenza di ciò è che, come hai detto giustamente, non è più sufficiente conoscere fillrate e banda passante per avere un'idea di massima del chip, ma ci sono fattori non evidenti, che hanno acquisito un'importanza preponderante. Un esempio è proprio quello dei registri interni che, mentre in passato erano adoperati per pochissime operazioni di supporto, principalmente alle ALU, mentre per il resto si ricorreva al frame buffer, adesso intervengono in tutte le operazioni compiute dalle pipelines (sia VS che PS, nonchè operazioni di filtraggio e di HSR). E purtroppo le specifiche sul numero, la disposizione e la funzionalità di questi elementi non sono di dominio pubblico e rappresentano anche un argomento piuttosto complesso (ti dico solo che possono sorgere problemi sia in caso di registri insufficienti che in caso di registri sovradimensionati e trovare il giusto equilibrio è una cosa molto complessa).
Per finire, i chip della serie FX hanno un'architettura particolare, utilizzando pipelines più lunghe, che fanno meno ricorso ai registri per le operazioni multiple, ma utilizzano di più cicli di loop-back con dati reindirizzati direttamente alle unità poste all'inizio delle pipelines, in una sorta di ciclo continuo (per questo si chiameno recirculating). Il problema è che il SW attuale è improntato, invece sull'utilizzo dei registri, piuttosto che sullo sfruttamento di queste operazioni di "ricircolo" e, per poterlo adattare alle caratteristiche delle FX, andrebbe riprogettato per intero. Aggiungi a questo che, se non ricordo male, secondo stime fatte, per poter utilizzare tutte le funzionalità DX9 previste dalle versioni PS2.0 e VS2.0, sarebbero stati necessari almeno 24 registri di tipo INT16 (per un totale di 12 registri a 32 bit, sia per le unità VS che per quelle PS), mentre nVIDIA, se non sbaglio, ne ha utilizzati 32 di tipo INT8

yossarian
24-10-2003, 15:06
Originariamente inviato da rera
nelle tabelle di pc professionale nv30 ha 8 pipelines, così come nv35.

se vuoi ti posto altre scempiaggini di pc professionale, una per tutte, quando doveva illustrare le meraviglie dell'NV30, prima della sua uscita; lo ha descritto come il chip a più alto livello di parallelismo, con 8 pipeline in grado di elaborare ognuna 8 texture per ciclo di clock; praticamente un'architettura 8x8


:muro: :muro: :D

rera
24-10-2003, 15:31
infatti anch'io rotolo dalle risate ogni volta che lo leggo:D
e ogni volta lo scrivono!!!!!!!

checo
24-10-2003, 15:48
Originariamente inviato da rera
nelle tabelle di pc professionale nv30 ha 8 pipelines, così come nv35.

pc professionale ?
:rotfl:

per ste robe carta straccia rispetto ad internet