PDA

View Full Version : Shadermark 6800 vs X800


Kelly1981
12-05-2004, 09:22
Traduco il link:

http://www.nordichardware.com/reviews/graphiccard/2004/r420/index.php?ez=13

Il risultato parla da solo , NV40 non e capace di far funzionare 7 test su 23 , e in tutti gli altri perde tranne che in uno.

Se non e' un chiaro risultato di NETTA inferiorita' questo...

Oltretutto in un applicazione come lo shadermark, creata appositamente per verificare le prestazioni dei giochi futuri...


As it looks now Radeon is still the king when it comes to Shader performance

:-)


Nei test seguenti sul puro fill rate , le schede si equivalgono... a parte nello z pixel in cui la 6800 vince con la sua modalita' 32x0 mode. Ma nel resto dei test NV40 (16 su 17) NV40 viene "Frustata" egregiamente da R420 ... persino dall' X800 PRO... che nonostante abbia 12 pipeline probabilmente ha delle prestazioni con gli shader superiori anche alla 6800 ULTRA.


Interesting , quindi nei giochi futuri R420 rimarra' la scheda HIGH END migliore possibile...

Jedi_Master
12-05-2004, 09:42
Sicuramente le Ati vanno meglio quando si usano gli shader,
soprattutto i 2.0 visto che gli 1.1 le rallentano.
Pero' questa rece e' un po' troppo di parte.
QUI (http://www.nordichardware.com/reviews/graphiccard/2004/r420/index.php?ez=10)
Mi sembra impossibile che la 9800xt nell'ultimo dei
test faccia meglio della 6800 ultra!
;)

Kelly1981
12-05-2004, 09:54
Puo' darsi che abbiano usato i driver detonators 60.xx e non gli ultimi... trucc...ehm ...ottimizzati... :-P

boh non so spiegarmelo altrimenti...

Jedi_Master
12-05-2004, 10:36
Originariamente inviato da Kelly1981
Puo' darsi che abbiano usato i driver detonators 60.xx e non gli ultimi... trucc...ehm ...ottimizzati... :-P
boh non so spiegarmelo altrimenti...

Quello e' vero, hanno usato i 60.XX e non i 61.XX.
ciao

seccio
12-05-2004, 12:25
scandalosa Nv40....speriamo sia esclusivamente un problema di driver.....meno male che poi ci sono loro che pensano ai PS3.0! :muro:

vaglielo poia dire a quelli di Nvitalia.....dove l'obbietività rasenta lo zero assoluto......

pon 87
12-05-2004, 12:45
praticamente la 6800 non ha ancora dei driver, non siamo neanche all'inizio. Bisogna aspettare le prime release ufficiali imho;)

seccio
12-05-2004, 12:51
Originariamente inviato da pon 87
praticamente la 6800 non ha ancora dei driver, non siamo neanche all'inizio. Bisogna aspettare le prime release ufficiali imho;)


se è così per nVidia lo è allora anche per ATi......

anche se , imho.....ste schede sono così simili alle precedenti che l'affinamento dei driver sia già stato fatto.

potevo capire il discorso dei detonator da geForce4 a geForceFX...ma questa volta capisco meno......anche se fondamentalmente rimango della tua idea, aspettiamo release uffiali sperando che appunto sia un problema esclusivamente di driver!

Perfectdavid
12-05-2004, 13:09
Originariamente inviato da seccio
se è così per nVidia lo è allora anche per ATi......

anche se , imho.....ste schede sono così simili alle precedenti che l'affinamento dei driver sia già stato fatto.

potevo capire il discorso dei detonator da geForce4 a geForceFX...ma questa volta capisco meno......anche se fondamentalmente rimango della tua idea, aspettiamo release uffiali sperando che appunto sia un problema esclusivamente di driver!


guarda che le ati sono uguale al predecessore...
nvidia sono completemente diverse...quindi servono i nuovi driver.

ballero
12-05-2004, 13:11
I valori di NordicHardware si riferiscono unicamente alla full precision.
Sono dati incompleti.

TheDarkAngel
12-05-2004, 13:20
Originariamente inviato da ballero
I valori di NordicHardware si riferiscono unicamente alla full precision.
Sono dati incompleti.

l'utilità del fp16 ? -.-

Jedi_Master
12-05-2004, 13:29
Originariamente inviato da TheDarkAngel
l'utilità del fp16 ? -.-

Riuscire a raggiungere gli fps delle ati....piu' o meno.
:D
Un giudizio completo lo potranno dare solo driver definitivi
per entrambe e magari (meglio) un gioco veramente FULL DX9
con VS e PS almeno 2.0 e magari che usi le 3DC di Ati.
Solo quello potrebbe mettere la parola FINE!

Kelly1981
12-05-2004, 13:38
sono d'accordo grande Jedi Master :-9

Jedi_Master
12-05-2004, 13:46
Originariamente inviato da Kelly1981
sono d'accordo grande Jedi Master :-9

Grazie, troppo gentile....

:angel:


ps: hai pvt!

OverClocK79®
12-05-2004, 14:03
forse nVidia deve ricompilare un po' i suoi driver per questo benk
visto che utilizza i suoi shader nn in maniera standard ma particolare
(nessun riferimento a cheat o altro eh)

BYEZZZZZZZZZZZZZZ

ballero
12-05-2004, 14:17
Originariamente inviato da TheDarkAngel
l'utilità del fp16 ? -.-


Avere una marcia in piu'.

Cifer
12-05-2004, 14:24
Originariamente inviato da ballero
I valori di NordicHardware si riferiscono unicamente alla full precision.
Sono dati incompleti.

Questo è vero, ma c'è da dire che quegli shaders sono pensati "solo" per la full precision, o comunque per un fp precision = o > a 24bit, fare dei bench a 16bit non ha senso, non con lo sm2.0 (a o b che sia), ancora meno con lo sm3.0 (dove è Ati a non poter vantare i 32bit).

E' un test specifico per gli shaders, è giusto rispettare quindi le "specifiche" degli shaders.

andreamarra
12-05-2004, 14:32
Originariamente inviato da ballero
Avere una marcia in piu'.

O averne una in meno?


Originariamente inviato da Cifer
Questo è vero, ma c'è da dire che quegli shaders sono pensati "solo" per la full precision, o comunque per un fp precision = o > a 24bit, fare dei bench a 16bit non ha senso, non con lo sm2.0 (a o b che sia), ancora meno con lo sm3.0 (dove è Ati a non poter vantare i 32bit).

E' un test specifico per gli shaders, è giusto rispettare quindi le "specifiche" degli shaders.

andreamarra
12-05-2004, 14:52
Originariamente inviato da Jedi_Master
Riuscire a raggiungere gli fps delle ati....piu' o meno.
:D
Un giudizio completo lo potranno dare solo driver definitivi
per entrambe e magari (meglio) un gioco veramente FULL DX9
con VS e PS almeno 2.0 e magari che usi le 3DC di Ati.
Solo quello potrebbe mettere la parola FINE!

E neanche, perchè poi ci sarà gente che all'uscita di ogni gioco in caso vada bene dirà quant'è bella la scheda, in caso le prende si dirà che i driver son immaturi (ma non erano i migliori in assoluto?) e si dirà che le features nvidia sono utili e saranno sfruttate, mentre il 3DC morirà fra cinque minuti.

ballero
12-05-2004, 15:37
Originariamente inviato da Cifer
Questo è vero, ma c'è da dire che quegli shaders sono pensati "solo" per la full precision,[..]

"erano" pensati.
Perche' lo shadermark fu realizzato su R300, poi modificato per la precisione parziale e ora ancora sotto modifica (la versione di NordicHardware e' una beta) per utilizzare gli altri profili; sempre all'insegna di valori comparabili.
Tb e' un professionista, non scherziamo.

andreamarra
12-05-2004, 16:38
Ma alla fine della fiera... sò vere ste cose? Sono di parte?

Io una cosa per cui ho notato che possono essere di parte e far vedere che in alcuni test la X800XT riesce ad agguantare la 6800Ultra aumentando la risoluzione in maniera assurda, ovvero oltre la 2000*qualcosa.

seccio
12-05-2004, 16:41
Originariamente inviato da Perfectdavid
guarda che le ati sono uguale al predecessore...
nvidia sono completemente diverse...quindi servono i nuovi driver.


ok , ma quello che ho pensato io è più al fatto che cmq per la 6800 cmq c'è la base (ovviamente migliorata dalle features e potenziata ) della 5900 no?

V4v4
12-05-2004, 16:45
io spero sia un problema di driver...... altrimenti altro mega flop :|

Cifer
12-05-2004, 16:47
Originariamente inviato da ballero
"erano" pensati.
Perche' lo shadermark fu realizzato su R300, poi modificato per la precisione parziale e ora ancora sotto modifica (la versione di NordicHardware e' una beta) per utilizzare gli altri profili; sempre all'insegna di valori comparabili.
Tb e' un professionista, non scherziamo.

In quello che hai quotato non vedo scherzi.
Certo che se un test si basa su un campione di contendenti che alla fine si riduce a 2 si adegua, ma rimane il fatto che la comparazione corretta è quella che determina le prestazioni degli shaders così come essi sono previsti da specifica.

Lo shadermark non è "stato realizzato" su r300, ma sulla base dei devolper kit delle DX9, la sua evoluzione è presumibile che segua di paripasso quella delle directX9 (a-b-c e relativi devolper kit).
Il codice non viene ottimizzato secondo gli standard suggeriti da altre case, ma realizzato secondo quello "classico" dei kit.
In modo indiretto tali standard vengono comunque dettati dalle case, visto che entrambe hanno team che di concerto con quelli Microsoft stabiliscono i nuovi standard (presenti nelle directX).

Se è stata definita una precisione fp pari o superiore a 24 bit per il profilo 2.0,2.a e 2.b, nonch'è a 32bit per il profilo 3.0 è perchè evidentemente visti i risultati in 16bit nella resa qualitativa Microsoft ha ritenuto giusto spingere i produttori in avanti, il che non significa che i risultati siano comunque poi soddisfacenti, vedi mancanza fisica dei 32bit in un caso e pratica nell'altro.

andreamarra
12-05-2004, 17:14
Originariamente inviato da Cifer
In quello che hai quotato non vedo scherzi.
Certo che se un test si basa su un campione di contendenti che alla fine si riduce a 2 si adegua, ma rimane il fatto che la comparazione corretta è quella che determina le prestazioni degli shaders così come essi sono previsti da specifica.

Lo shadermark non è "stato realizzato" su r300, ma sulla base dei devolper kit delle DX9, la sua evoluzione è presumibile che segua di paripasso quella delle directX9 (a-b-c e relativi devolper kit).
Il codice non viene ottimizzato secondo gli standard suggeriti da altre case, ma realizzato secondo quello "classico" dei kit.
In modo indiretto tali standard vengono comunque dettati dalle case, visto che entrambe hanno team che di concerto con quelli Microsoft stabiliscono i nuovi standard (presenti nelle directX).

Se è stata definita una precisione fp pari o superiore a 24 bit per il profilo 2.0,2.a e 2.b, nonch'è a 32bit per il profilo 3.0 è perchè evidentemente visti i risultati in 16bit nella resa qualitativa Microsoft ha ritenuto giusto spingere i produttori in avanti, il che non significa che i risultati siano comunque poi soddisfacenti, vedi mancanza fisica dei 32bit in un caso e pratica nell'altro.

Ottimo come al solito :)

Ma la cosa che non capisco è questa: se questi dati fossero veritieri si dovrebbe parlare di problemi a ivello sofware con driver (perennemente) acerbi oppure un possibile problema hardware.

Cifer
12-05-2004, 18:15
Io non parlerei di problemi hardware.
E' logico che l'architettura Nvidia non potendo elaborare in fp a 24bit debba ripiegare quando questo sia il requisito minimo (almeno in teoria) sui 32bit, ora è facile ipotizzare che + diventano complessi e lunghi gli shaders, maggiore sarà il divario prestazionale fra chi usa i 24bit e chi i 32bit (così come in senso inverso quello qualitativo, anche se credo che quest'ultimo sia molto meno evidente).

Una diversa logica di compilazione degli shaders può certamente venire incontro + ad una o all'altra architettura, ma a parità di profilo utilizzato (e probabilmente non solo, bisogna vedere comunque l'efficienza che tale implementazione comporta caso per caso) non ci si può aspettare miracoli.

Se invece si presuppone da parte dell'una il proseguimento dell'utilizzo della precisione fp a 16bit, allora sarà sicuramente quest'ultima ad avere un minore impatto sulle prestazioni al complicarsi e l'allungarsi degli shaders.

Non so se Nvidia abbia studiato una forma di postprocesso che possa correggere almeno in parte il banding dell'fp16 (e mi sa che c'è qualcosa forse nelle istruzioni dedicate allo shader antialiasing), un processo di ottimizzazzione che possa restituire un risultato il più possibile vicino all'fp24 di Ati, rendendo di fatto l'fp16 una sorta di compressione, un pò come il 3Dc di Ati per le normal map, ma anche in questo caso dubito che si arriverebbe a livelli qualitativi paragonabili(sopratutto mano mano che gli shaders si complicano), e comunque starebbe sempre (ammesso che lo shader AA possa farlo, la mia è + una congettura che una considerazione) al programmatore sfruttare in fase progettuale al meglio le funzioni dell'istruzione per calibrare l'effetto.

Alla fine è + che altro un problema di scelte, in un caso hanno scelto di applicare in modo indiscriminato un livello qualitativo alto, mantenendo invariato l'impatto sulle performance.

Nell'altro hanno scelto di poter optare (lasciando l'opzione al programmatore) fra un livello qualitativo mediocre ed uno eccellente, dando quindi vita a 2 diversi livelli di impatto sulle performance, e quindi inesorabilmente anche sulla qualità.

Se l'nv40 lavorasse sempre in fp32 logicamente nel tempo (con l'aumentare della complessità degli shaders) il calo prestazionale sarebbe sensibilmente maggiore rispetto ad Ati, il che comunque non vuol dire che almeno i modelli di punta non possano far girare agevolmente gli shaders con una precisione fp32 per diverso tempo, solo che quì il confronto con la concorrenza perde.

Più che un problema hardware credo sia un problema di diverse scelte, che perquanto condivisibili poi devono comunque sposarsi, anzi piegarsi al marketing.

Raven
12-05-2004, 18:42
Originariamente inviato da Perfectdavid
guarda che le ati sono uguale al predecessore...
nvidia sono completemente diverse...quindi servono i nuovi driver.

... il salto "grosso" c'è stato dalle geffo4 alle FX... da nv35 a nv40 non c'è un tale "stravolgimento" di architettura come si potrebbe pensare... ;)

(io mi son rotto di sentire sempre la solita storia: servono nuovi driver!!!... i possessori di 5800/5900 hanno dovuto sorbirsi sta "scusa" per mesi!... e anche adesso, vedi FarCry...)

andreamarra
12-05-2004, 19:07
Originariamente inviato da Raven
... il salto "grosso" c'è stato dalle geffo4 alle FX... da nv35 a nv40 non c'è un tale "stravolgimento" di architettura come si potrebbe pensare... ;)

(io mi son rotto di sentire sempre la solita storia: servono nuovi driver!!!... i possessori di 5800/5900 hanno dovuto sorbirsi sta "scusa" per mesi!... e anche adesso, vedi FarCry...)


Per questo dico sempre di far prudenza e di svincolarsi dai luoghi comuni. In fondo si tratta sempre di belle cifre...

Non sono un fan boy ati (poi sta cosa di idolatrare una marca la devo capire ancora...), però il commento di molti sui driver Catalyst (orrendi) li trovo troppo esagerati, soprattutto quando la scusa ricorrente (giusta o sbagliata che sia) è che i driver della nvidia sono "acerbi". Mi rendo conto che sia giusto dire che non sono ottimizzati perfettamente, ci mancherebbe.

Però come giustamente fa notare Raven i possessori della 5200/5600/5800/5900 hanno dovuto davvero sorbirsi la scusa del driver immaturo per diverso tempo.

Piuttosto, sono confermati quesi dati? Se così fosse sono davvero mortificanti.

seccio
12-05-2004, 19:10
Originariamente inviato da Raven
... il salto "grosso" c'è stato dalle geffo4 alle FX... da nv35 a nv40 non c'è un tale "stravolgimento" di architettura come si potrebbe pensare... ;)

(io mi son rotto di sentire sempre la solita storia: servono nuovi driver!!!... i possessori di 5800/5900 hanno dovuto sorbirsi sta "scusa" per mesi!... e anche adesso, vedi FarCry...)

è su per giù quello che intendevo io.....sull'NV30 nn c'è nemmeno l'ombra dell'architettura GF4.....invece su questa GF6 tutto sommato la base è pur sempre comune a quella delle FX.....

andreamarra
12-05-2004, 19:14
Originariamente inviato da seccio
è su per giù quello che intendevo io.....sull'NV30 nn c'è nemmeno l'ombra dell'architettura GF4.....invece su questa GF6 tutto sommato la base è pur sempre comune a quella delle FX.....

Non sono un tecnico, ma se fosse così sarebbe una cosa gravissima...

Nonsi sa se sono veritieri o vero quei bench? :)

Kelly1981
12-05-2004, 19:36
Ha ragione Raven, NV40 e' simile a NV30/35

Piu di quanto era simile una geffo4 a una geforce FX

Sono d'accordo con te Raven.

Spero almeno per quelli che sceglieranno NV40 come loro

prossima scheda per loro non debba finire come e' finita per quelli

che hanno preso NV30...

Raven
12-05-2004, 19:43
Originariamente inviato da andreamarra
Non sono un tecnico, ma se fosse così sarebbe una cosa gravissima...


beh... adesso non esageriamo... sintetizzando&semplificando all'estremo, nv30 aveva 3 problemi:
- bus a 128bit
- 4 pipeline
- difficoltà nell'esecuzione ottimale di pixel e vertex shaders (fp32 etc... etc...)

I primi 2 sono stati più che brillantemente risolti... sul 3° punto rimangono appunto delle perplessità come quelle esposte in questo thread... cose comunque da verificare in maniera approfondita più avanti (attendiamo almeno che le schede siano in commercio e che ci sia quindi una release di driver definitiva...) ;)

seccio
12-05-2004, 19:48
Originariamente inviato da Kelly1981
Ha ragione Raven, NV40 e' simile a NV30/35

Piu di quanto era simile una geffo4 a una geforce FX

Sono d'accordo con te Raven.

Spero almeno per quelli che sceglieranno NV40 come loro

prossima scheda per loro non debba finire come e' finita per quelli

che hanno preso NV30...
e con me nn è d'accordo nessuno che avevo già detto praticamente la stessa cosa nella pagina precedente??? :(





































:sofico:

seccio
12-05-2004, 19:54
Originariamente inviato da andreamarra
Non sono un tecnico, ma se fosse così sarebbe una cosa gravissima...

Nonsi sa se sono veritieri o vero quei bench? :)


imho.....gravissima in parte, vedi ATi ....tutto sommato anche lei dopo la 9700 nn è che abbia tirato fuori grosse novità (l'unica bella è il TempAA di recente) ma sotto il punto di vista dell'architettura , beh cambia poco.....a parte il numero di pipelines.....

idem per l'NV30-5 che cmq anche se il primo nn brillasse è risultato cmq un progetto più che buono!

in tutti e due i casi , insistere sulla strade già percorse sfruttando al massimo progetti cmq vincenti.....e per questo forse meglio tirare al limite le attuali tecnologie...poi chissà....

dove sta l'errore? mmmm.....credo che la gente dopo un po' di stufi di zuppe riscaldate....io per primo probabilmente..ho sempre detto che questa generazione l'avrei saltata perchè guadagnerei semplicemente frames e poco o niente di features....nuove tecniche di filtraggi e così via.....anche a nn capirci niente , s'arriva a intendere che l'ultima rivoluzione in questo campo risale all'agosto del 2002.....

Kelly1981
12-05-2004, 21:20
Si hai ragione anche tu Seccio LOL :-)

Contento ???

:P

seccio
12-05-2004, 21:26
Originariamente inviato da Kelly1981
Si hai ragione anche tu Seccio LOL :-)

Contento ???

:P
:D :p grassie:oink:

cmq una cosa...magari nn centra poi molto , ma come mai il risultato sulla tech demo Reef di matrox è così diverso fra Radeon e GeForce FX?

GEFORCE FX
http://www.forumzone.it/public/uploaded/cicciuzzo/200441014722_Matrox%20-%20Nvidia.JPG
RADEON
http://www.forumzone.it/public/uploaded/cicciuzzo/200441014813_Matrox%20Ati.JPG

e ..

GEFORCE FX
http://www.forumzone.it/public/uploaded/cicciuzzo/200441011815_Nvidia.JPG
RADEON
http://www.forumzone.it/public/uploaded/cicciuzzo/200441011720_Ati.JPG

Ora....già nel primo anche ATi fa un errore....guardate l'occhio....del calamaro!
La questione per nVidia si fa preoccupante scazza anche qui li shader ? stavolta però sono in DX8.1 ....altrimenti che fa di sbagliato??

DjLode
12-05-2004, 21:41
Mmmmm il polpo fatto dalla FX nella prima immagine, sembra un polpo. Quello renderizzato dalla Radeon è un'aberrazione e non solo nell'occhio. Nel secondo sinceramente a parte un pesce verde invece che blu, ad una prima analisi delle gran differenze non ne vedo.

Cifer
12-05-2004, 21:55
hemm, è una seppia, non un polpo, però sono d'accordo con DjLode, nella FX sempra la seppia ha una squama + realistica, ne ho presa + di qualcuna e non ne ho mai viste a buccia d'arancio come nella radeon.
:D

seccio
12-05-2004, 21:55
Originariamente inviato da DjLode
Mmmmm il polpo fatto dalla FX nella prima immagine, sembra un polpo. Quello renderizzato dalla Radeon è un'aberrazione e non solo nell'occhio. Nel secondo sinceramente a parte un pesce verde invece che blu, ad una prima analisi delle gran differenze non ne vedo.

si si scusa....nn me ne intendo molto di pesci.....mi fan anche cagare da mangiare....!

cmq...tornando a noi.....che nn sia il massimo anche con ATi è vero , bisognerebbe vedere cosa combina sulla matrox....prob i risultati sono dati appunto dall'emulazione, però...quello di nVidia è anche peggio se volgiamo...

per il secondo screen sono due i pesci ....nn uno!! ;)

seccio
12-05-2004, 21:59
Originariamente inviato da Cifer
hemm, è una seppia, non un polpo, però sono d'accordo con DjLode, nella FX sempra la seppia ha una squama + realistica, ne ho presa + di qualcuna e non ne ho mai viste a buccia d'arancio come nella radeon.
:D

insomma mi pare chiaro due cose quindi :
1- sul forum nessuno sa (a parte qualche raro caso) la distinzione fra polpo calamaro seppia!
2- le Radeon si devono fare una liposuzione...! :D :D


cmq...nn so ....la squama sarà anche più reale quella di nVidia ma mi sembra scolorita...come del resto la "pianta" rossa sul masso subito dietro.....!

ripeto ,bisognerebbe vedere un attimo cosa combina la matrox!

DjLode
12-05-2004, 22:05
Originariamente inviato da Cifer
hemm, è una seppia, non un polpo, :D

Stacca la testa, ti rimane la testa e i tentacoli. Un polpo appunto :)
Come vedi ho ragione :mc:

Cifer
12-05-2004, 22:07
Originariamente inviato da DjLode
Stacca la testa, ti rimane la testa e i tentacoli. Un polpo appunto :)
Come vedi ho ragione :mc:

:D

Kelly1981
13-05-2004, 09:07
Secondo me essendo un test per le matrox le schede funzionano in emulazione e quindi gli errori ci possono stare... forse qua ci vorrebbe un wrapper... come per il tech demo dell'X800 che per funzionare su r300 ha bisogno di un wrapper... insomma non fa molto testo.

Comunque bello come tech demo... se qualcuno puo' darci l'immagine reale su Parhelia ci fa un favore :-)

andreamarra
13-05-2004, 10:10
Questa è una seppia...

http://www.to.infn.it/~bianchi/fotoThailand/seppia.jpg

http://www.jesicentro.it/TELSCUO/FINITI/FLOFAUN/ffimm/seppia.JPG



Notare l'occhio e la pelle.

Da dire che la pelle di questo animale è decisamente mutevole, nel colore e nella superficie. Può essere liscissima, come può corrugarsi moltissimo.

Anche i polpi hanno una pelle molto varia, ad esempio può essere liscissima o molto aggrinzita.

E per concludere l'angolo Piero Angela :D domani parleremo dei calamari e dei totani, con una parentesi sui moscardini :D ;)

Jedi_Master
13-05-2004, 10:32
Originariamente inviato da andreamarra
E per concludere l'angolo Piero Angela :D domani parleremo dei calamari e dei totani, con una parentesi sui moscardini :D ;)

moscardini rulez!
LOL
:rotfl:

DjLode
13-05-2004, 11:00
Allora mettiamola così, se dovessi sognarmi una seppia-polpo me la immaginerei come quella renderizzata dalla FX e non come quella renderizzata dalla Radeon. La seconda ha un occhio talmente finto che ci può stare solo nel caso che tale animale sia morto. Così come la pelle è assolutamente più veritiera (nel contesto di una demo) quella della FX, la pelle del secondo animale sembra una grattugia ed è priva di particolari.

Kelly1981
13-05-2004, 11:00
eheheh bravo marra :-)

Cmq a me piacciono molto di piu i colori del radeon...

andreamarra
13-05-2004, 11:14
Originariamente inviato da DjLode
Allora mettiamola così, se dovessi sognarmi una seppia-polpo me la immaginerei come quella renderizzata dalla FX e non come quella renderizzata dalla Radeon. La seconda ha un occhio talmente finto che ci può stare solo nel caso che tale animale sia morto. Così come la pelle è assolutamente più veritiera (nel contesto di una demo) quella della FX, la pelle del secondo animale sembra una grattugia ed è priva di particolari.


Ti dirò, entrambe le seppie sono veritiere. La pelle a grattugia non è una cosa abnormale, anzi. Quando facevo pesca subacquea di polipi ne prendevo qualcuno, seppie pochissime. E quest'ultime erano di diversi tipi, e i due modelli renderizzati sono un esempio. I polpi ad esempio hanno quell'inturgidimento rugoso se toccati e quando sono ancora nel pieno delle forze, poi morendo rilassano la pelle. Lo stesso colore dei due modelli della demo sono reali. La seppia è un animale altamente mimetico, cambia da un secondo all'altro. Impressionante la sua velocità nel cambiare colore e tipologia di pelle.

L'occhio non è assolutamente quello di una seppia morta. L'occhio renderizzato dalla FX non è l'occhio tipico dei calamari o dei totani. Sono andato diverse volte a pesca di totani, con la lampara, e gli occhi ricordano molto quelli umani. Non simil-gatto. Normalmente le seppie vive hanno l'occhio tondo e nero. Gli serve per filtrare il più possibile la luce, che in fondo al mare non è che sia moltissima. In definitiva l'ìocchio rettiliforme non è così evidente, è molto più simile all'occhio umano.


Adesso smetto di fare il Piero della situazione :D :asd:.... mi piacerebbe vedere uno shot della Matrox per vedere le differenze :)

andreamarra
13-05-2004, 11:27
Qua si vede meglio....



Osservate la pelle rugosa...

http://pctidifi.mi.infn.it/lucevisione/biologia/images/Seppia.jpg



Osservate gli occhi. Praticamente è come se avessero delle "palpebre" che proteggono l'occhio da una esposizione di luce. In questo caso la luce del fotografo. Spero non abbia detto una frescaccia :p

http://www.giamani.com/add_images/Birmania%20seppia_big.jpg

DjLode
13-05-2004, 11:28
Effettivamente lo shoot della radeon è il più simile.... :muro:

http://www.matrox.com/mga/media/screenshots/parhelia_reef/faa16x_comp.jpg

andreamarra
13-05-2004, 11:31
Originariamente inviato da DjLode
Effettivamente lo shoot della radeon è il più simile.... :muro:




:confused:

Non ho capito perchè lo screen mostra punti con AA e punti senza AA... :confused:

:)




EDIT: sbaglio o lo shoot su FX non ha l'AA a differenza della radeon? Questo intendevi dire :) ?

DjLode
13-05-2004, 11:33
Ehm... è l'unico shot simile (dove c'era l'animale in questione) che ho trovato sul sito Matrox ed era tra le pagine che mostravano gli effetti del Fragment AA.

andreamarra
13-05-2004, 11:36
Originariamente inviato da DjLode
Ehm... è l'unico shot simile (dove c'era l'animale in questione) che ho trovato sul sito Matrox ed era tra le pagine che mostravano gli effetti del Fragment AA.

Ah, ho capito :)

Quindi la renderizzazione della matrox è come quella della radeon. Però non capisco, un conto è il colore, un conto è un particolare come l'occhio che è strutturakmente diverso... :confused:

Tra l'altro ho notato che l'AA su FX negli shoot non è applicato, mentre su Radeon si. Sapete se su quello shot su FX non è stato applicato? O non è possibile applicarlo in quel demo?

seccio
13-05-2004, 11:38
quindi...ha ragione ATi in fondo , anche se fa poco testo visto che è cmq una cosa emulata....

PS come mai ati riesce e emulare l'AA della matrox e nVidia no??

anche nel thread in rilievo delle tech demo c'è scritto di disattivare la funzione del fragmentAA ....quando io mai l'ho disattivata cmq....!

Cifer
13-05-2004, 11:47
Originariamente inviato da andreamarra
Ti dirò, entrambe le seppie sono veritiere. La pelle a grattugia non è una cosa abnormale, anzi. Quando facevo pesca subacquea di polipi ne prendevo qualcuno, seppie pochissime. E quest'ultime erano di diversi tipi, e i due modelli renderizzati sono un esempio. I polpi ad esempio hanno quell'inturgidimento rugoso se toccati e quando sono ancora nel pieno delle forze, poi morendo rilassano la pelle. Lo stesso colore dei due modelli della demo sono reali. La seppia è un animale altamente mimetico, cambia da un secondo all'altro. Impressionante la sua velocità nel cambiare colore e tipologia di pelle.

L'occhio non è assolutamente quello di una seppia morta. L'occhio renderizzato dalla FX non è l'occhio tipico dei calamari o dei totani. Sono andato diverse volte a pesca di totani, con la lampara, e gli occhi ricordano molto quelli umani. Non simil-gatto. Normalmente le seppie vive hanno l'occhio tondo e nero. Gli serve per filtrare il più possibile la luce, che in fondo al mare non è che sia moltissima. In definitiva l'ìocchio rettiliforme non è così evidente, è molto più simile all'occhio umano.


Adesso smetto di fare il Piero della situazione :D :asd:.... mi piacerebbe vedere uno shot della Matrox per vedere le differenze :)

Io di seppie ne avrò prese una 10na, fra l'altro quasi tutte in Sardegna, la squama è mutevole ad una velocità forse anche superiore rispetto quella del popo, però sinceramente non l'ho mai vista a pelle d'oca.
La foto che hai postato è molto probabilmente di una specie tropicale o probabilmente si trova in un ambiente marino in cui non mi è mai capitato di beccarla(non è che io sia un pescatore subacqueo così esperto), il che comunque conferma che può assumere quell'aspetto.
Se fate attenzione gli screen non sono sullo stesso frame vista la posizione dei pesci, probabilmente durante il suo passaggio nella demo la seppia muta in continuazione colore adattandosi all'ambiente, che è poi ciò che fa nella realtà.
In più penso che ci sia un continuo cambiamento della luce per esaltare gli effetti di rifrazione con il conseguente adattarsi dei pesci.

street
13-05-2004, 12:04
Comunque se si va a vedere bene, sembra che anche la radeon abbia l' occhio "a gatto" solo che con una pellicola molto scura e appena trasparente sopra.

andreamarra
13-05-2004, 12:13
Originariamente inviato da Cifer
Io di seppie ne avrò prese una 10na, fra l'altro quasi tutte in Sardegna, la squama è mutevole ad una velocità forse anche superiore rispetto quella del popo, però sinceramente non l'ho mai vista a pelle d'oca.
La foto che hai postato è molto probabilmente di una specie tropicale o probabilmente si trova in un ambiente marino in cui non mi è mai capitato di beccarla(non è che io sia un pescatore subacqueo così esperto), il che comunque conferma che può assumere quell'aspetto.
Se fate attenzione gli screen non sono sullo stesso frame vista la posizione dei pesci, probabilmente durante il suo passaggio nella demo la seppia muta in continuazione colore adattandosi all'ambiente, che è poi ciò che fa nella realtà.
In più penso che ci sia un continuo cambiamento della luce per esaltare gli effetti di rifrazione con il conseguente adattarsi dei pesci.


La mia zona di pesca :D è molto differente, essendo lo stretto di Sicilia. Di là ci passa veramente di tutto, alcuni miei amici andati in Tunisia si sono meravigliati del fatto che alcuni pesci che loro osservavano con la maschera in tunisia venivano pescati da me con la barca :)

Sulla velocità di cambiamento nulla da dire, sono semplicemente mostruose in questo senso e variano pigmentazione in un secondo, così come la tipologia di pelle :)

Quello che dici sui vari frames è un'ipotesi a mio avviso corretta, mi ricordo che la seppia nel tech demo mutava colore. Adesso lo riscarico e lo faccio ripartire.
Sarebbe interessante se un possessore di Fx posti degli shoots in cui si nota se la pelle dela seppia è fissa come nello shoot postato, oppure se diventa "a intermittenza" come quella dello shot della radeon

:)

Perfectdavid
13-05-2004, 12:15
ma la versione con matrox dove'è?:D

andreamarra
13-05-2004, 12:19
Originariamente inviato da Perfectdavid
ma la versione con matrox dove'è?:D

E' quella postata da Dj Lode qualche post sopra, quello dove ci sono i riquadri in cui si nota il Fragment AA della Parhelia :)

Kelly1981
13-05-2004, 19:45
sul sito matrox non l'ho trovata...

DjLode
13-05-2004, 20:32
L'immagine che ho postato io è passata un pò inosservata vedo...
Cmq se non vi fidate, tasto destro sull'immagine, proprietà e leggete l'indirizzo. Sul sito Matrox non la trovate perchè cercate dove non c'è.

andreamarra
13-05-2004, 21:35
Allora, si sa qualcosa di quei 7 bench che non era possibile far partire con la NV40?

E le prestazioni così assurde della X800XT? Si sa qualcosa, ci sono bench contradditori? :)