Nvidia GTX 260 core 216 e ATI Radeon HD 4870, la sfida

Nvidia GTX 260 core 216 e ATI Radeon HD 4870, la sfida

Confronto tra le due schede di fascia medio/alta che attualmente rappresentano la soluzione ideale per chi, con il PC, desidera giocare senza compromessi

di pubblicato il nel canale Schede Video
NVIDIAATIRadeonAMD
 
  • Articoli Correlati
  • ATI vs NVIDIA: a confronto 17 configurazioni video ATI vs NVIDIA: a confronto 17 configurazioni video Confrontiamo le schede video ATI della serie Radeon HD 4800 con quelle NVIDIA delle famiglie Geforce 9 e GeForce GTX 200. Inserite nell'analisi le schede Sapphire Radeon HD 4850 X2, la prima con due GPU Radeon HD 4850 montate sullo stesso PCB, e Asus EAH4870 X2 TOP, con frequenze di clock overcloccate di default. 6 titoli a confronto con 17 schede e 3 risoluzioni video.
  • ATI Radeon HD 4830: l'anti 9800GT? ATI Radeon HD 4830: l'anti 9800GT? La nuova proposta ATI per il segmento di mercato tra 100,00€ e 150,00€ riprende le caratteristiche tecniche della scheda Radeon HD 4850, riducendo il numero di stream processors a 640 e diminuendo leggermente le frequenze di clock. Analizzate la reference board ATI, la proposta Sapphire e quella Powercolor.
  • Comparativa Radeon HD 4870, quattro schede a confronto Comparativa Radeon HD 4870, quattro schede a confronto Analisi comparata di quattro schede video con frequenze operative superiori a quelle della Radeon HD 4870 di riferimento. Asus, Gainward, PowerColor e Sapphire, ognuna con una propria implementazione personalizzata. Ma c'è davvero così tanta differenza?
740 Commenti
Gli autori dei commenti, e non la redazione, sono responsabili dei contenuti da loro inseriti - info
RICKYL7413 Dicembre 2008, 16:48 #681
Originariamente inviato da: Ratatosk
Direi che potreste smetterla. Solo per puntualizzare che con questo post l'ultima parola l'hai voluta tu. Smettete di comportarvi come bambini o magari fatelo via email che a tutto il resto di noi non può fregar di meno di leggervi.

Grazie.



No guarda mi sembra di avere a che fare con dei bambini, robe da matti.. ma è mai possibile che tutte le volte che si deve discutere di Schede Video bisogna sempre finire per litigare
non permetto a nessuno di prendersi gioco di me con scritte da troll o discorsi della minchia punto è basta, altro che ultima parola, non ci sono e-mail o msn che tengano.




il mio 1° post di questa news scritto in data (01/12/2008)
ora leggete questo articolo scritto in data (10/12/2008)
http://www.tomshw.it/graphic.php?guide=20081210
[SIZE="1"]uno dei tanti articoli in giro per la rete[/SIZE]

adesso vai a criticare pure l'autore di quel articolo [SIZE="1"](non dico a te, chi ha orecchie per intendere intenda)
[/SIZE]

P.S.
Come specificato nelle note dell'articolo avevo pure io spiegato più volte è volte il motivo di quei prezzi, se poi c'è gente che non capisce o semplicemente vuole fare finta di non capire non ci posso fare niente, troppo facile dire hai ragione tu.. saluti e senza rancore.
MiKeLezZ14 Dicembre 2008, 13:25 #682
Originariamente inviato da: yossarian
aggiungo un'ultima cosa relativa all'AA ed alla sua presunta inutilità.

Nel corso di questi anni si sono sviluppati algoritmi sempre più sofisticati, facendo studi appositi sul funzionamento dell'occhio umano come filtro. Si è scoperto, ad esmepio, che l'occhio è più sensibile ad una disposizione simmetrica e regolare e si è quindi passati da pattern di tipo ordered grid, con subpixel disposti a croce attorno al pixel campione, a pattern di tipo rotated grid, in cui i subpixel presentano una rotazione di circa 45° rispetto alla posizione s croce. Questo pattern da, visivamente, risultati migliori di quello di tipo ordered, ma non è ancora sufficiente e, comunque, presenta sempre una simmetria. Il passo successivo è stato quello di utilizzare pattern di tipo randomly rotated, dove la rotazione dei subsample cambia in maniera casuale tra pixel contigui. Infine, con numeri elevati di sample (almeno 4 ma meglio 8 o più si è passati a pattern di tipo randomly sparsed grid, in cui i subsample sono disposti, tranne un numero limitato usati come riferimento, in maniera casuale all'interno dell'area circostante al pixel campione. In questa categoria rientra il CF di ATi che fa uso di un numero di sample pari a 3 volte quelli adoperati dal MSAA box ed è attivabile solo insieme al MSAA box in modalità almeno 4x (con il 4x si hanno in tutto 12 sample per pixel e con l'8x 24 sample).
Questa evoluzione ha portato a dei notevoli incrementi nella qualità del filtro ma facendo uso sempre di INT8 (ovvero di 8 bit interi per canale). Le prossime dx (le 10.1 e le11) prevedono l'adozione di una modalità di MSAA 4x come requisito minimo inoltre è prevista l'adozione di texture filtering a fp32 e di blending a 16 bit (anzichè gli 8 attuali). Oltre a questo, saranno implementate modalità di AA di tipo custom, programmabili tramite pixel shader (quindi non più eseguite da FF) e con algoritmi non lineari e con qualità più elevata dell'attuale e, soprattutto, adattabile alla perfezione all'applicazione. Questo a partire già dalle specifiche dx10.1. Ovviamente ciò avrà un certo impatto sulle prestazioni (in parte ci si può fare un'idea guardando questi dati su texture unit e rop's http://www.hardware.fr/articles/725...-4870-4850.html ).
Tante parole, pochi fatti.

Eccovi le mirabolanti differenze fra l'utilizzo di filtro AA 4X e 8X (che, ricordo, vi ciuccia circa il 20% di prestazioni):

http://www.xbitlabs.com/misc/pictur...4xb.jpg&1=1

http://www.xbitlabs.com/misc/pictur...8xb.jpg&1=1

Mi raccomando gli occhiali da vista, o mano pronta sulla rotellina del mouse per le zoomate.

Source:
http://www.xbitlabs.com/articles/vi...iver180_11.html


Pare evidente, quindi, che non è sufficiente [I]alzare la risoluzione per eliminare le scalettature[/I]. Se così fosse, tutti quelli che passano una vita a studiare queste cose non hanno capito una mazza e sarebbe il caso che qualche illumnato del forum andasse a dir loro che stanno perdendo tempo e sprecando denaro

Ultima nota: l'AA non elimina le scalettature e gli artefatti in genere; si limita a ridurne l'impatto visivo. L'eliminazione sarebbe possibile solo tramite filtro passa basso che elimini le frequenze le cui code arrecano disturbo. Una soluzione del genere è inattuabile in quanto si eliminerebbero anche frequenze utili alla corretta rappresentazione delle immagini
Pare evidente, e da cosa, di grazia?

Non sono riuscito a capire in quale frangente questo wikipediare qualche informazione tecnica di dominio pubblico avvalori tale, a mio parere, bislacca tesi (di cui, francamente, mi sfugge tuttora sia il punto, che il fine ultimo).

L'aliasing è un fenomeno fisico non inerente unicamente la computer grafica, e si risolve molto banalmente aumentando la risoluzione (in entrambe le sue accezioni), e questo metodo è infatti alla base del 90% delle tecniche di anti-aliasing, e cessa la sua utilità quando giunge ai limiti fisici dati dai sensori del nostro corpo (ovvero capacità risolvente dell'occhio e distanza di visione, quindi dpi).

L'anti-aliasing esiste per 3 diversi motivi (certo che è fastidioso ripetersi):

1- Limitazioni hardware dei monitor, nel 1998 il massimo era la 1600x1200, ora dopo 10 anni, non siamo andati tanto lontani. Questa è la cosa più importante, perchè a prescindere da tutto, non sarà mai possibile visualizzare perfettamente un segmento obliquo su display a relativamente bassa risoluzione (se non truccandolo ai nostri occhi, e facendogli perdere la sua proprietà di "affilatura".

2- Limitazioni hardware delle VGA, per esempio nel costruire oggetti trasparenti (reti, foglie) gli sviluppatori sono costretti ad usare texture trasparenti al posto dei canonici poligoni (che quindi necessitano uno specifico algoritmo di anti-aliasing per evitare l'insorgere delle scalettature), e la stessa potenza elaborativa non permette ancora di far muovere fluidamente scene a risoluzioni di 2560x1600 (e questa, su display da 24" o meno, renderebbe l'anti-aliasing pressochè inutile).

3- Date l'incapacità di cui sopra, quindi avere una maggior efficienza nella trattazione dati, la stessa per cui è saggio encodare un video 1080p con suono 5.1 LPCM in rispettivamente H.264 e AC3 (ritrovandosi con 20GB di roba invece che 80GB).

Insomma, ma è poi è banale, è meglio ascoltarsi un MP3 a 128kbps con il Crystallizer attivo della X-Fi (che è una farloccata per tentare di ripristinare parti di frequenze in realtà non esistenti), oppure direttamente un bel DVD-AUDIO sul Hi-Fi in sala, registrato direttamente a 192kHz e 24-bit (il massimo che il nostro orecchio può recepire)?

La cosa bella della tecnologia è che questa aumenta sempre più di qualità, mentre i nostri sensori no... quindi si arriverà al punto di pareggio, è solo questione di tempo.



p.s. Siamo fortemente OT, e vedo quindi ancora meno il punto di tali discussioni
michelgaetano14 Dicembre 2008, 13:32 #683
Chissene dell'OT, proseguite, voglio capire come funziona in tutto e per tutto il benedetto filtro
yossarian14 Dicembre 2008, 14:24 #684
Originariamente inviato da: MiKeLezZ
Tante parole, pochi fatti.

Eccovi le mirabolanti differenze fra l'utilizzo di filtro AA 4X e 8X (che, ricordo, vi ciuccia circa il 20% di prestazioni):

http://www.xbitlabs.com/misc/pictur...4xb.jpg&1=1

http://www.xbitlabs.com/misc/pictur...8xb.jpg&1=1

Mi raccomando gli occhiali da vista, o mano pronta sulla rotellina del mouse per le zoomate.

Source:
http://www.xbitlabs.com/articles/vi...iver180_11.html



che si riguadagnano con gli interessi usando il MRT (che non sai neppure cosa sia e come funzioni

Originariamente inviato da: MiKeLezZ
Pare evidente, e da cosa, di grazia?

Il wikipediare qualche informazione tecnica di dominio pubblico non vedo in quale frangente avvalori la tua a mio parere bislacca tesi (di cui, francamente, mi sfugge tuttora sia il punto, che il fine ultimo).

sei autoreferenziale? Cerca su wikipedia le informazioni che ho postato e poi cerca i riferimenti ai tuoi interventi; e chiunque volesse fare la pprova può fare altrettanto

Originariamente inviato da: MiKeLezZ
L'aliasing è un fenomeno fisico non inerente unicamente la computer grafica, e si risolve molto banalmente aumentando la risoluzione (in entrambe le sue accezioni), e questo metodo è infatti alla base del 90% delle tecniche di anti-aliasing, e cessa la sua utilità quando giunge ai limiti fisici dati dai sensori del nostro corpo (ovvero capacità risolvente dell'occhio e distanza di visione, quindi dpi).


continui a dimostrarrti ignorante in materia: nessun campionatore sintetico è in gradio di raggiungere il potere risolvente dell'occhio per una serie di limiti fisici ed elettronici che non perdo tempo ad elencarti perchè non è IT e perchè non ho intenzione di farlo. Se ti interessa documentati, possibilmente non su wikipedia

Originariamente inviato da: MiKeLezZ

L'anti-aliasing esiste per 3 diversi motivi (certo che è fastidioso ripetersi):

1- Limitazioni hardware dei monitor, nel 1998 il massimo era la 1600x1200, ora dopo 10 anni, non siamo andati tanto lontani. Questa è la cosa più importante, perchè a prescindere da tutto, non sarà mai possibile visualizzare perfettamente un segmento obliquo su display a relativamente bassa risoluzione (se non truccandolo ai nostri occhi, e facendogli perdere la sua proprietà di "affilatura".

2- Limitazioni hardware delle VGA, per esempio nel costruire oggetti trasparenti (reti, foglie) gli sviluppatori sono costretti ad usare texture trasparenti al posto dei canonici poligoni (che quindi necessitano uno specifico algoritmo di anti-aliasing per evitare l'insorgere delle scalettature), e la stessa potenza elaborativa non permette ancora di far muovere fluidamente scene a risoluzioni di 2560x1600 (e questa, su display da 24" o meno, renderebbe l'anti-aliasing pressochè inutile).

3- Date l'incapacità di cui sopra, quindi avere una maggior efficienza nella trattazione dati, la stessa per cui è saggio encodare un video 1080p con suono 5.1 LPCM in rispettivamente H.264 e AC3 (ritrovandosi con 20GB di roba invece che 80GB).

Insomma, ma è poi è banale, è meglio ascoltarsi un MP3 a 128kbps con il Crystallizer attivo della X-Fi (che è una farloccata per tentare di ripristinare parti di frequenze in realtà non esistenti), oppure direttamente un bel DVD-AUDIO sul Hi-Fi in sala, registrato direttamente a 192kHz e 24-bit (il massimo che il nostro orecchio può recepire)?

La cosa bella della tecnologia è che questa aumenta sempre più di qualità, mentre i nostri sensori no... quindi si arriverà al punto di pareggio, è solo questione di tempo.



p.s. Siamo fortemente OT, e vedo quindi ancora meno il punto di tali discussioni


semmai l'aliasing esiste per una serie di motivi. L'aliasing si ha anche sui sensori delle fotocamere digitali (hai presente quella da 50 Mpixel? In quel caso la risoluzione è ben più alta di 1600x1200 o della fullHD). L?aliasing esiste in qualsiasi spazio digitalizzato, qualuque sia il numero di campioni scelti per periodo. L'AA box filter non fa sovracampionamento dell'immagine (non è un FSAA) ed è tra quelli di qualità peggiore (il tent che ti fa tanto schifo, qualitativamente è migliore, nel caso non lo sapessi), motivo per cui si cercano altri algoritmi di campionamento e ricostruzione del segnale. Non è possibile raggiungere la frequenza di campionamento dell'occhio per limiti fisici ed elettronici ineludibili e quindi, il tuo sogno di eliminare il fastidioso AA è destinato a rimanere un tuo sogno irrealizzato.
C'è una palese incongruenza tra i punti 1 (nonn è possibile riprodurre una linea obliqua senza scalettature) e il punto 2 (campionando a 2560 non serve filtro); la conclusione dovrebbe essere che campinando a 2560 è possibile riprodurre correttamente un linea obliqua? Oppure che la frequenza di campionamenot è sufficiente ad ingannare l'occhio? Sbaglaito in tutti e due i casi.
Per la cronaca, il modo corretto di vedere aliasing spaziale è su screen shot e non su immagini in movimento

In effetti non ha senso continuare a parlare di qualcosa con qualcuno che ignora l'argomentio della conversaione, soprattutto trattandosi di un OT
MiKeLezZ14 Dicembre 2008, 15:30 #685
Originariamente inviato da: yossarian
che si riguadagnano con gli interessi usando il MRT (che non sai neppure cosa sia e come funzioni
Chi si guadagna cosa dove e quando. Ovvero, "ma che stai a dì."
Ti consiglio ogni tanto l'uso di soggetti e verbi.

sei autoreferenziale?
Dall'accademia della Crusca:
[i]Il termine «autoreferenziale» è adoperato soprattutto in logica e serve a indicare un enunciato che, in qualche modo, si riferisce già a sé stesso (si pensi, ad esempio, al paradosso di Epimenide, cretese, il quale dice: «tutti i cretesi sono bugiardi» - la dimensione "autoreferenziale" permette di individuare il paradosso, secondo il quale lo stesso enunciato «tutti i cretesi sono bugiardi» andrebbe considerato a sua volta come una bugia etc. Ma si pensi anche alla dimostrazione di Gödel, il quale, senza la dimensione "autoreferenziale", forse non avrebbe potuto afferrare il proprio assunto...). È stato impiegato poi in linguistica per individuare un aspetto importante del linguaggio, in particolar modo da Jakobson in poi[...][/i]


No, francamente non mi sento un enunciato, o chissà quale altro improprio significato tu abbia voluto usare. Ah, grazie dell'offesa, di classe, devo dire.

continui a dimostrarrti ignorante in materia
Sentivi proprio il bisogno di questa offesa personale? Finiti gli argomenti? Link ad immagine (click per visualizzarla)

nessun campionatore sintetico è in gradio di raggiungere il potere risolvente dell'occhio per una serie di limiti fisici ed elettronici che non perdo tempo ad elencarti perchè non è IT e perchè non ho intenzione di farlo. Se ti interessa documentati, possibilmente non su wikipedia
Non perdi tempo a farlo semplicemente per il fatto che non sia possibile, in quanto te lo sei inventato, e metti addirittura le mani avanti dicendo che sia indimostrabile (un colpo di genio, quasi, così uno può spararle grosse come vuole, tanto mica deve dimostrarle...)?
Ah, da che sono usciti TV FullHD e HDReady la rete è piena di pseudo-tabelle in cui si indica il limite di risolvenza dell'occhio umano, a seconda di diagonale e distanza di visione. Tipo questa: http://www.fillife.com/wp-content/u...tv_distance.jpg
Teoricamente, oltre una certa distanza, solo l'amico SuperMan è in grado di notare la differenza fra due TV 40", di cui una sia HDReay e una FullHD.
Possedendo ovviamente tale TV HD ed avendo ovviamente fatto prove a riguardo posso, altrettanto ovviamente, confermare che la riproduzione di due filmati (della stessa scena), uno a 1080p, e uno a 720p, da una certa distanza in poi (e neppure tanta, parliamo di circa 3,5m per il 37" è totalmente indistingubile (via "blind", passatemi il termine, test).
Ma basti pensare anche a banalità quotidiane come la visita dal dottore per la patente, che le letterine in fondo non si riescono mai a vedere (per la cronaca, ho, anzi, avevo 10/10, quindi niente battute sul "ti servono gli occhiali" ).

semmai l'aliasing esiste per una serie di motivi. L'aliasing si ha anche sui sensori delle fotocamere digitali (hai presente quella da 50 Mpixel? In quel caso la risoluzione è ben più alta di 1600x1200 o della fullHD).
Allora saprai che in tali macchine ad ogni pixel corrisponde un fotodiodo colorato (o rosso, o verde, o blu), e si ha una innacuratezza data dal fatto che a ogni pixel corrisponda solo un colore? E che questo fotodiodo prenda inoltre parte della luce invece diretta a quello vicino? Quindi che l'immagine risultante sia relativamente "poco definita" ed "impastata", causa della loro risultante?
Saprai quindi che il modo per risolvere questo problema è proprio aumentare la risoluzione. No? Ovvero aumentando i megapixel? (certo, che gli si affianchi poi adeguata ottica, capace di risolvenza).
Oppure aggiungendo un totale di 3 fotodiodi per pixel (in famosa conformazione RGB)? Ti suona nuovo? Ops?
L'AA box filter non fa sovracampionamento dell'immagine (non è un FSAA) ed è tra quelli di qualità peggiore (il tent che ti fa tanto schifo, qualitativamente è migliore, nel caso non lo sapessi),
Io mi fido solo di quello che vedo. Io con i tent vedo cacca sfuocata. Così vede, ad esempio, anche il signor Derek (per citarne uno fra tanti, e probabilmente uno dei più moderati nel giudizio).
Poi, ognuno si faccia la sua idea. Io posso dimostrare ciò che dico, e lo faccio volentieri:
http://www.anandtech.com/video/show...i=2988&p=14

motivo per cui si cercano altri algoritmi di campionamento e ricostruzione del segnale
Forse non sai che un metodo ancora migliore che non la ricostruzione di un segnale non esistente sia iniziare da un segnale a risoluzione maggiore, con quindi tali informazioni esistenti?
Stranamente non hai appunto risposto al mio esempio se sia meglio un MP3 a 128kbps suonato con X-Fi Crystallizer oppure un bel DVD-AUDIO a 24-bit e 192kHz. Giusto... è retorica.

Non è possibile raggiungere la frequenza di campionamento dell'occhio per limiti fisici ed elettronici ineludibili e quindi, il tuo sogno di eliminare il fastidioso AA è destinato a rimanere un tuo sogno irrealizzato.
Brrrrr... Ma lo sai che l'occhio riesce a vedere solo fino a 24-bit di colore? Solo fino a ~200 di singoli frame al secondo? Lo sai che siamo limitati anche in frequenza, ed è per questo che non vediamo infrarosso, ultravioletto, e raggi x? Che oltre a questi filtri passa banda abbiamo pure sensori non lineari, con andamenti logaritmi (e il suono non a caso si misura in dB)? Scherzi a parte, non è che te hai gli occhi bionici?

C'è una palese incongruenza tra i punti 1 (nonn è possibile riprodurre una linea obliqua senza scalettature) e il punto 2 (campionando a 2560 non serve filtro); la conclusione dovrebbe essere che campinando a 2560 è possibile riprodurre correttamente un linea obliqua? Oppure che la frequenza di campionamenot è sufficiente ad ingannare l'occhio? Sbaglaito in tutti e due i casi.
L'incongruenza non c'è poichè parlo chiaramente di schermi a relativamente bassa risoluzione, e faccio un esempio, con massimo una 1600x1200.
Semmai mi puoi criticare che "dipende", poichè è tutta una concomitanza di cose, lo stesso pattern con cui sono creati gli odierni schermi LCD è differente per ogni produttore (e da una diversa resa), poi bisogna vedere lo spessore di tale linea, è ovvio che qualsiasi cosa abbia un solo pixel di larghezza non potrà mai essere visualizzato adeguatamente.
E' grave quindi che tu neppure legga gli interventi, certo ti è comoda scusante per poi invertarti infondate critiche.

Per la cronaca, il modo corretto di vedere aliasing spaziale è su screen shot e non su immagini in movimento
In pratica mi fai un bel assist, datosi che i giochi sono successioni di immagini in movimento, e quindi il fenomeno dell'aliasing (e quindi l'utilità dell'anti-aliasing) sono ancor più ridotti.

In effetti non ha senso continuare a parlare di qualcosa con qualcuno che ignora l'argomentio della conversaione, soprattutto trattandosi di un OT
A questi punti è ovvio che tu non sia in grado di instaurare una conversazione costruttiva senza cercare di prevalere su e/o offendere l'interlocutore (e ho forti dubbi anche sulle capacità di obiettività.

Mi dispiace molto perchè Leoneazzurro aveva dichiaramente detto di smetterla, e avrei voluto dargli questa soddisfazione, e io stesso sono 3 volte in questo thread che esorto (infruttuosamente) a terminare questo (abbastanza inutile) Off Topic (che a quanto pare ha l'unica finalità di "bullismo"?).

Di buono c'è solo una cosa, scripta manent...
riporto14 Dicembre 2008, 18:21 #686
Scusate se interrompo questo "interessantissimo" litigio ma qualcuno sa quando esce la GTX 270?

Grazie
leoneazzurro14 Dicembre 2008, 19:31 #687
Mikelezz e yossarian, vi avevo chiesto rispettosamente di finirla con questa diatriba che sta diventando "faida" in tutti i thread. Sinceramente mi sono stancato e se prossimamente non seguirete il mio invito, cominceremo con delle sospensioni. Discussioni OK, ma non riempire pagine e pagine di decine di thread differenti per dirsi a vicenda che si stanno dicendo stupidaggini. E vi ricordo che per litigare bisogna essere in due.
Quindi se la si finisse una buona volta di pensare di essere la fonte del sapere unico e divino, sarebbe cosa buona.
Nel caso particolare, Mikelezz, come nel caso degli innumerevolo thread su Vista, potresti per piacere accettare che esiste al mondo qualcuno che, lavorando in un determinato campo, ne possa sapere più di te?
E tu, yossarian, potresti per piacere evitare di essere sarcastico e cercare di spiegare il più chiaramente determinati concetti - evitando di esagerare come nel caso del potere risolvente dell'occhio, in quanto quello che serve non è campionare esattamente una forma geometrica, bensì fare sì che il suo campionamento, alla data distanza di visione, sia più o meno indistinguibile dall'immagine reale.
Piuttosto, potresti per esempio spiegare meglio il fatto che un filtro FSAA tende a diminuire le scalettature ma che se applicato a tutta l'immagine tende a sfocare i dettagli delle texure, per cui un filtro tent (ma anche MSAA box classico) tende a rimuovere le scalettature meglio di altri filtri, ma "slava" le texture e tende a creare artefatti in caso di funzioni non lineari (es. illuminazione) - ed in questo caso la strada intrapresa con l'Edge detect AA è molto interessante.
yossarian15 Dicembre 2008, 15:07 #688
Originariamente inviato da: MiKeLezZ
Chi si guadagna cosa dove e quando. Ovvero, "ma che stai a dì."
Ti consiglio ogni tanto l'uso di soggetti e verbi.

non ne vedo la ragione: se ne è parlato talmente tanto che lo sanno anche i sassi chi siano i soggetti e quali i verbi mancanti in questa frase. Non perdo tempo con chi fa il finto tonto cercando di buttarla in caciara. Per l'ultima volta: hai presente le DX10.1 e la possibilità di utilizzare più render target per lo z-buffer, che ti fa fare in un solo passaggio quello che le dx10 ti obbligano a fare in 2 passaggi. Quell'operazione fa guadagnare il 25% con MSAA almeno 4x attivo

Originariamente inviato da: MiKeLezZ

Dall'accademia della Crusca:



No, francamente non mi sento un enunciato, o chissà quale altro improprio significato tu abbia voluto usare. Ah, grazie dell'offesa, di classe, devo dire.


dall'accademia della crusca sul termine autoreferenziale:

http://forum.accademiadellacrusca.i...enti/4867.shtml

Sarebbe opportuno citare sempre le fonti e riportare i link, quando non si esprimono concetti propri, in modo che tutti possano documentarsi leggendo con i propri occhi e facendosi un'idea personale. Per chi ne avesse voglia, può leggersi tutto il contenuto del link

Originariamente inviato da: MiKeLezZ

Non perdi tempo a farlo semplicemente per il fatto che non sia possibile, in quanto te lo sei inventato, e metti addirittura le mani avanti dicendo che sia indimostrabile (un colpo di genio, quasi, così uno può spararle grosse come vuole, tanto mica deve dimostrarle...)?
Ah, da che sono usciti TV FullHD e HDReady la rete è piena di pseudo-tabelle in cui si indica il limite di risolvenza dell'occhio umano, a seconda di diagonale e distanza di visione. Tipo questa: http://www.fillife.com/wp-content/u...tv_distance.jpg
Teoricamente, oltre una certa distanza, solo l'amico SuperMan è in grado di notare la differenza fra due TV 40", di cui una sia HDReay e una FullHD.
Possedendo ovviamente tale TV HD ed avendo ovviamente fatto prove a riguardo posso, altrettanto ovviamente, confermare che la riproduzione di due filmati (della stessa scena), uno a 1080p, e uno a 720p, da una certa distanza in poi (e neppure tanta, parliamo di circa 3,5m per il 37" è totalmente indistingubile (via "blind", passatemi il termine, test).
Ma basti pensare anche a banalità quotidiane come la visita dal dottore per la patente, che le letterine in fondo non si riescono mai a vedere (per la cronaca, ho, anzi, avevo 10/10, quindi niente battute sul "ti servono gli occhiali" ).


in quella tabella non vedo indicazioni sul limite di risolvenza dell'occhio umano (da cui i fullHD sono lontani anni luce, per la cronaca). Neppure su un HDready, ad una certa distanza, si distinguono i pixel o le scalettature. Questo significa che non ci sono? Neppure su un TV 17" con 1024 di risoluzione vedi le scalettature. Significa che è sufficiente quella risoluzione per eliminarle? Quando lavoro ad un computer, mi metto a 3 o 4 matri (o magari più di distanza? Inoltre, l'aliasing è solo scalettature? E da cosa dipende?
Nessuna battuta, non serve affatto farne. Sono sufficienti le domande a cui non rispondi ed è sufficiente il fatto che ti sei atteggiato a grande esperto, parlando di fp16 ed fp32 in riferimento all'aliasing e di MSAA come di una sorta di FSAA.

Originariamente inviato da: MiKeLezZ

Allora saprai che in tali macchine ad ogni pixel corrisponde un fotodiodo colorato (o rosso, o verde, o blu), e si ha una innacuratezza data dal fatto che a ogni pixel corrisponda solo un colore? E che questo fotodiodo prenda inoltre parte della luce invece diretta a quello vicino? Quindi che l'immagine risultante sia relativamente "poco definita" ed "impastata", causa della loro risultante?


non lo so perchè non è vero. Ogni pixel è formato da 4 subpixel (matrice bayer) uno rosso, uno blu e due verdi; ogni subpixel non prende parte della luce destinata a quello vicino perchè ci sono delle microlennti focalizzanti poste sul sensore. Stai facendo confusione tra deinterlacciamento e filtro antialiasing; mettiamoci anche il filtro anti moire (altro tipo di aliasing) e il pasticcio è completo. L'aliasing (non moire) si ha anche su sensori con tecnologia X3 che non hanno matrice bayer. L'immagine non risulta poco definita o impastata (tutt'altro); gli attuali sensori svolgono un eccellente lavoro sia a livello di risolvenza che a livello di fedeltà cromatica. Ma poichè non siamo sul forum di fotografia, mi fermo qui. Per chi volesse documentarsi, sui forum di fotografia c'è gente piuttosto competente.

Originariamente inviato da: MiKeLezZ

Saprai quindi che il modo per risolvere questo problema è proprio aumentare la risoluzione. No? Ovvero aumentando i megapixel? (certo, che gli si affianchi poi adeguata ottica, capace di risolvenza).


io non lo so: dimmelo tu. Ma prima leggiti questo thread
http://www.hwupgrade.it/forum/showthread.php?t=1666559
e, in particolare, questo articolo

http://www.luminous-landscape.com/t...esolution.shtml

e magari intervieni pure a correggere le stupidaggini che sono state dette da utenti ignoranti che non capiscono nulla di fotografia, di ottica e di elettronica.

Originariamente inviato da: MiKeLezZ
Oppure aggiungendo un totale di 3 fotodiodi per pixel (in famosa conformazione RGB)? Ti suona nuovo? Ops?


mi suona nuovo cosa? RGB? Oppure famosa? O magari conformazione?
Ah, i subpixel che formano un pixel, in una matrice bayer sono già 4 (RGBG), per la cronaca

Originariamente inviato da: MiKeLezZ

Io mi fido solo di quello che vedo. Io con i tent vedo cacca sfuocata. Così vede, ad esempio, anche il signor Derek (per citarne uno fra tanti, e probabilmente uno dei più moderati nel giudizio).
Poi, ognuno si faccia la sua idea. Io posso dimostrare ciò che dico, e lo faccio volentieri:
http://www.anandtech.com/video/show...i=2988&p=14


io mi fido di quello che riporta la letteratura sui filtri di ricostruzione di tipo box, tent, gaussian, bi-cubic, sinc function, ecc. E posso dimostrare quello che dico.

Originariamente inviato da: MiKeLezZ

Forse non sai che un metodo ancora migliore che non la ricostruzione di un segnale non esistente sia iniziare da un segnale a risoluzione maggiore, con quindi tali informazioni esistenti?
Stranamente non hai appunto risposto al mio esempio se sia meglio un MP3 a 128kbps suonato con X-Fi Crystallizer oppure un bel DVD-AUDIO a 24-bit e 192kHz. Giusto... è retorica.


non ho risposto perchè non pertinente all'argomento trattato e non calzante come esempio. Un segnale a risoluzione maggiore di cosa. Paragoni un segnale fullHD a cosa? Manca il soggetto. Quale sarebbe il segnale a frequenza minore? E quale quello a frequenza maggiore? Quali sarebbero le informazioni perse? Ovviamente riferendosi al campo dell'elaborazione delle immagini, non ad altri. Non è retorica ma chiacchiere inutili. Porta esempi concreti, attinenti all'argomento trattato, poi ne riparliamo.

Originariamente inviato da: MiKeLezZ
Brrrrr... Ma lo sai che l'occhio riesce a vedere solo fino a 24-bit di colore? Solo fino a ~200 di singoli frame al secondo? Lo sai che siamo limitati anche in frequenza, ed è per questo che non vediamo infrarosso, ultravioletto, e raggi x? Che oltre a questi filtri passa banda abbiamo pure sensori non lineari, con andamenti logaritmi (e il suono non a caso si misura in dB)? Scherzi a parte, non è che te hai gli occhi bionici?


e tu lo sai che gli strumenti ottici ed elettronici hanno molti più limiti dell'occhio umano? E sai che il tipo di risposta influenza la gamma dinamica percepita? E anche le percezioni di contrasto e risolvenza? E lo sai (per tornare IT con l'OT) che anche il pattern scelto per l'AA influenza, a parità di campioni, la capacità di vedere più o meno artefatti?

Originariamente inviato da: MiKeLezZ

L'incongruenza non c'è poichè parlo chiaramente di schermi a relativamente bassa risoluzione, e faccio un esempio, con massimo una 1600x1200.
Semmai mi puoi criticare che "dipende", poichè è tutta una concomitanza di cose, lo stesso pattern con cui sono creati gli odierni schermi LCD è differente per ogni produttore (e da una diversa resa), poi bisogna vedere lo spessore di tale linea, è ovvio che qualsiasi cosa abbia un solo pixel di larghezza non potrà mai essere visualizzato adeguatamente.
E' grave quindi che tu neppure legga gli interventi, certo ti è comoda scusante per poi invertarti infondate critiche.


l'incongruenza c'è ed è palese: una matrice con un numero insifficiente di campioni va incontro ad altre forme di aliasing oltre quelle che affliggono una matrice con un numero elevato di sample. Resta il fatto che anche quelle con milioni di pixel soffrono di aliasing e resta il fatto che le dimensioni dei pixel e le loro distanze non possono essere ridotte oltre certi limiiti perchè ciò creerebbe altri problemi che darebbero darebbero origine o amplificherebbero altre forme di rumore (hai presente il pixel crosstalk, per dirne uno; quello è un disturbo che diventa tanot più grande quanto più sono piccoli i pixel). E' il problema a cui si va incontro nel progettare sensori di fotocamere o videocamere, oltre che matrici di monitor.

Originariamente inviato da: MiKeLezZ

In pratica mi fai un bel assist, datosi che i giochi sono successioni di immagini in movimento, e quindi il fenomeno dell'aliasing (e quindi l'utilità dell'anti-aliasing) sono ancor più ridotti.


ma anche no; è l'esatto contrario: nelle immagini in movimento, la fortuna è che ci sono più forme di antialiasing concorrenti. Questo perchè le immagini in movimento presenterebbero, altrimenti, ancora più aliasing (c'è quello temporale oltre alle forme di aliasing spaziale).

Originariamente inviato da: MiKeLezZ

A questi punti è ovvio che tu non sia in grado di instaurare una conversazione costruttiva senza cercare di prevalere su e/o offendere l'interlocutore (e ho forti dubbi anche sulle capacità di obiettività.

Mi dispiace molto perchè Leoneazzurro aveva dichiaramente detto di smetterla, e avrei voluto dargli questa soddisfazione, e io stesso sono 3 volte in questo thread che esorto (infruttuosamente) a terminare questo (abbastanza inutile) Off Topic (che a quanto pare ha l'unica finalità di "bullismo"?).

Di buono c'è solo una cosa, scripta manent...


ti ho invitato più di una volta ad aprire un thread in schede video, per denunciare tutte le stupidaggini che dico e per propagandare le tue verità. Cosa aspetti a farlo, invece di inquinare in continuazione altri thread? In tal modo, non soltanto le cose resterebbero scritte, ma tutte confinate all'interno della stessa discussione.

Originariamente inviato da: leoneazzurro
Mikelezz e yossarian, vi avevo chiesto rispettosamente di finirla con questa diatriba che sta diventando "faida" in tutti i thread. Sinceramente mi sono stancato e se prossimamente non seguirete il mio invito, cominceremo con delle sospensioni. Discussioni OK, ma non riempire pagine e pagine di decine di thread differenti per dirsi a vicenda che si stanno dicendo stupidaggini. E vi ricordo che per litigare bisogna essere in due.
Quindi se la si finisse una buona volta di pensare di essere la fonte del sapere unico e divino, sarebbe cosa buona.
Nel caso particolare, Mikelezz, come nel caso degli innumerevolo thread su Vista, potresti per piacere accettare che esiste al mondo qualcuno che, lavorando in un determinato campo, ne possa sapere più di te?
E tu, yossarian, potresti per piacere evitare di essere sarcastico e cercare di spiegare il più chiaramente determinati concetti - evitando di esagerare come nel caso del potere risolvente dell'occhio, in quanto quello che serve non è campionare esattamente una forma geometrica, bensì fare sì che il suo campionamento, alla data distanza di visione, sia più o meno indistinguibile dall'immagine reale.


il punto è proprio questo: che l'immagine ricostruita non è uguale all'immagine reale e non lo è perchè ci sono tutta una serie di fenomeni di interferenza che impediscono che ciò avvenga. Di fatto, non abbiamo idea di quale sia l'immagine reale (in computer grafica) perchè vedioamo solo l'immagine ricostruita. Si continua a parlare in maniera riduttiva di aliasing come se fosse solo qualche scalettaura su una linea obliqua. Niente di più falso: quella è solo una manifestazione di un tipo di aliasing (jagged). Ce ne sono tante altre che provocano artefatti, alterazione dei colori, errori nella riproduzione degli oggetti. Ed è un fenomeno ineliminabile, in quanto intrinseco ad ogni processo di digitalizzazione delle immagini o dei suoni o di qualunque altra cosa. L'unica cosa che si può fare è tentare di ricostruire al meglio il segnale originale e questo significa che non è sufficiente utilizzare il giusto numero di campioni ma anche un corretto algoritmo di ricostruzione (e il box filter, in questo ambito, è il peggiore in assoluto). Questo se si vuole cercare di ingannare l'occhio e non di superare i suoi limiti (che in alcuni ambiti sono ancora troppo distanti almeno per prodotti di fascia consumer).

Originariamente inviato da: leoneazzurro
Piuttosto, potresti per esempio spiegare meglio il fatto che un filtro FSAA tende a diminuire le scalettature ma che se applicato a tutta l'immagine tende a sfocare i dettagli delle texure, per cui un filtro tent (ma anche MSAA box classico) tende a rimuovere le scalettature meglio di altri filtri, ma "slava" le texture e tende a creare artefatti in caso di funzioni non lineari (es. illuminazione) - ed in questo caso la strada intrapresa con l'Edge detect AA è molto interessante.


un filtro di tipo fsaa agisce utilizzando un certo numero di campioni per ogni pixel. Ad esempio un fsaa 4x fa sovracampionamento dell'immagine moltiplicandola per 4; per ogni nuovo pixel prende i 4 cmapioni adiacenti disposti secondo la griglia utlizzata da quell'algoritmo e fa un'interpolazione lineare di tutti i valori di luminanza e crominanza dei campioni selezionati. una volta calcolato il valore risultante da queste operazioni di interpolazione lineare, applica quel valore al pixel campione ed ai 4 subpixel; poi scala di nuovo l'immagine alle sue dimenzioni originali. Questo processo, da un lato, se si sceglie opportunamente la griglia, riduce gli artefatti (non solo le scalettature); dall'altro, tende ad appiattire i colori attorno a ciacun pixel, impastandoli. Nella pratica, questo tipo di operazione agisce come un filtro passabasso che elimina le frequenze più alte (che in termini di operazioni sui canali rgb, equivale a tagliare componenti a lunghezze d'onda spostate verso il blu); questo provoca anche una diminuzione del contrasto eprcepito dall'occhio e, di conseguenza anche della nitidezza delle immagini percepita. Ho descritto un filtro che fa interpolazione di tipo lineare, ma se ne potrebbe scegliere uno che utilizza un altro tipo di algoritmo (ad esempio di tipo gaussiano), con cui è possibile evitare di tagliare le componenti ad alta frequenza o, quanto meno, di ridurre l'impatto negativo dovuto a questo taglio.
Purtroppo, poichè gli algoritmi i tipo box sono i più facili da implementare, si è, da sempre, fatto ricorso a questi. Il MSAA utilizzato è un box, ovvero utilizza dei rettangoli nel filtro di ricostruzione del segnale. Non voglio addentrarmi in calcoli tratti dalla teoria dei segnali, quindi mi limito a dire che una finestra rettangolare nello spazio equivale ad una distribuzione in frequenze che presenta un'area relativamente estesa di alte frequenze (che andrà tagliata). Più stringo l'area nello spazio (o nel tempo) più mi si allarga in frequenza (e sono costretto a tagliare componenti utili alla corretta riproduzione dell'immagine). Per questo motivo, un campionamento a frequenza spaziale troppo alta può creare più problemi di quanti ne risolva. E per questo motivo, questo tipo di algoritmi sono limitati all'uso di edge AA. Il MSAA agisce, formalmente, come il FSAA di tipo SS; ovvero moltiplica l'immagine per n, fa interpolazione lineare e ridimensiona. La differenza è che lo fa solo sulla geometria dell'immagine e non fa il calcolo della media dei valori degli n subsample, ma applica a tutti il valore del pixel campione. In pratica, riduce le scalettaure ispessendo le linee e sfumandole ma agisce solo su quelle.
Il tent è un filtro di tipo bilineare, migliore del box, perchè utilizza funzioni di ricostruzione triangolare che hanno il vantaggio di ridurre le aree delle componenti in alta frequienza che vanno tagliate (quindi l'immagine ricotruita perde meno in fatto di contrasto), ma resta un algoritmo limitato ai soli bordi delle figure.
Non è che iò box o il tent rimuovano le scalettature meglio; il fatto è che gli altri (che sono qualitativamente migliori) sono anche più difficili da implementare via HW perchè richiedono algoritmi non lineari (e non possono essere eseguiti dalle FF delle rop's).
Gli ultimi algoritmi di edge detect agiscono solo sulle linee non disposte lungo gli assi x e y; questo ha diminuito il peso computazionale dell'AA ed ha anche ridotto l'impatto negativo sull'immagine (limitando le zone a ridotto contrasto).
In ogni caso, l'efficacia di un algoritmo di AA va valutata su screen e non su immagini in movimento, poichè in queste ultime si aggiunge il blurring introdotto dagli algoritmi di temporal AA. Quindi le immagini in movimento evidenziano meno scalettature ed altri artefatti ma sono anche meno nitide.
Il box filter è un algoritmo che, per quanto perfezionato, è ormai arrivato al suo limite ed è questo il motivo per cui nelle prossime dx è prevista anche l'adozione di algotimi di AA di tipo custom basati su funzioni non lineari.
MiKeLezZ15 Dicembre 2008, 18:14 #689
Originariamente inviato da: yossarian
in quella tabella non vedo indicazioni sul limite di risolvenza dell'occhio umano (da cui i fullHD sono lontani anni luce, per la cronaca).
Forse "risolvenza" è troppo generico e ti da la possibilità di fraintenderlo.
Capacità di discernimento del singolo elemento utile ti piace di più?
La riproduzione video è tutta una illusione ottica.
Se prendi il microscopio e guardi il singolo pixel facente parte dell'array LCD del tuo monitor noterai tanti piccoli triangolini colorati, posti in successione, rosso, verde, e blu. Ma se lo guardi a mezzo metro, vedi solamente il loro colore risultante, chessò, un bel marroncino.
Link ad immagine (click per visualizzarla)
Questo perchè per (s)fortuna non abbiamo dei superocchi.
O anche (questa è vera, ma l'ho fatta per altri motivi), io ho messo un sacchetto di plastica giallo di sopra una collina posta a 2km in linea di aria da casa mia. A occhio nudo appare assolutamente invisibile. Ovviamente, con un piccolo binocolo si riesce a vedere senza problemi.

Neppure su un HDready, ad una certa distanza, si distinguono i pixel o le scalettature. Questo significa che non ci sono?
Una specie di domanda filosofica.
Se non si vedono, vuole dire che non ci sono?
Se un albero cade nella foresta, e nessuno è in grado di sentirlo, farà rumore?

Neppure su un TV 17" con 1024 di risoluzione vedi le scalettature.
Credo che in questo caso le scalettature ci siano eccome.

aliasing e di MSAA come di una sorta di FSAA.
Ho parlato del MSAA come una variante del FSAA. Sono tuttora convinto di non aver detto alcuna inesattezza.

non lo so perchè non è vero. Ogni pixel è formato da 4 subpixel (matrice bayer) uno rosso, uno blu e due verdi; ogni subpixel non prende parte della luce destinata a quello vicino perchè ci sono delle microlennti focalizzanti poste sul sensore.
Hai fatto un casino e un mischione di roba diversa.
I sensori sono il foveon, che sono 3 layer, uno sopra l'altro, di colore R, G, e B.
Oppure il più tipico Color Filter Array (CCD e Super CCD), che è una disposizione a singolo strato di tipo (in successione)
GB
GR
In questo caso (al contrario del foveon) ad ogni pixel corrisponde comunque un solo colore.
Il SuperCCD è una sua variante che utilizza generalmente fotodiodi di forma ottagonale invece che quadrata, per aumentare l'informazione ricevuta.
Di questo ci sono poi state diverse evoluzioni.
Il Super CCD di Fujifilm utilizza per ogni pixel un array di fotodiodi RRGBB più 8 mezzi G.
L'evoluzione, denominata SR, per ogni pixel adotta due fotodiodi di colore uguale, che possono o essere accoppiati, oppure inseriti negli interstizi fra gli uni e gli altri. Essi, poichè di diversa grandezza, emulano una risposta non lineare, per avere un miglior range dinamico.
Anche in questo caso per ogni pixel c'è solo un colore (più la risultante dei mezzi fotodiodi adiacenti).

Le microlenti sono tutt'altra cosa, e vengono (eventualmente) utilizzate per migliorare il fill rate del sensore.
Cioè, dato che ogni fotodiodo non è direttamente appiccicato a quello vicino, e c'è dello spazio vuoto fra i due, si posizionano sopra di essi tante microlenti, la cui utilità è quella di focalizzare la luce verso il fotodiodo (che altrimenti sarebbe andata in quello spazio vuoto). Ciò è causa però il famoso purple fringing (poi acutizzato dal fenomeno del blooming).

Stai facendo confusione tra deinterlacciamento e filtro antialiasing
Guarda che deinterlacciamento e filtro anti-aliasing non capisco come te li sia tirati fuori nella stessa frase!

mettiamoci anche il filtro anti moire (altro tipo di aliasing) e il pasticcio è completo.
Pure il filtro moire, stai inventando cose di cui io non ho mai parlato.

L'aliasing (non moire) si ha anche su sensori con tecnologia X3 che non hanno matrice bayer. L'immagine non risulta poco definita o impastata (tutt'altro); gli attuali sensori svolgono un eccellente lavoro sia a livello di risolvenza che a livello di fedeltà cromatica. Ma poichè non siamo sul forum di fotografia, mi fermo qui.
Facile sbagliare quando non si è più nel campo di studio, eh?
Se mi avete seguito nel discorso di cui sopra, avrete letto che un singolo pixel è formato dall'informazione del fotodiodo corrispondente più parte di informazione di quelli vicini, è questo che, se i megapixel non sono sufficienti, può causare impastatura dell'immagine (poichè per un dato pixel si ha informazione anche su quelli vicini - è simile al principio dell'anti-aliasing lineare).
A questo bisogna aggiungere che non in tutti i casi ad ogni pixel corrisponde il vero colore, ma solo l'informazione relativa al componente R, o G, o B (e quindi per avere tale informazioni bisognerà relazionare fra loro i pixel adiacenti, secondo algoritmi gelosamente custoditi da ogni casa).
Inoltre è evidente che la qualità del sottosistema sensore sia anche determinata dalla capacità dell'elettronica usata.
Il fotodiodo deve trasformare l'energia in carica, la carica in tensione, e questa va amplificata per il circuito di trattazione del segnale (che può esser direttamente vicino al fotodiodo, come nel caso del CMOS, o distaccato, come nel CCD).
Il ADC (analog to digital converter) a seconda del taglio del device (consumer, prosumer, pro) sarà quindi a 8-bit, 10-bit, oppure 12-bit, e maggiore è il valore, maggiore sarà anche la precisione dell'informazione (i quindi anche tutti i calcoli successivi).
Questo è anche il perchè i professionisti preferiscano scattare in RAW, datosi che, al contrario di JPEG che downsampla comunque a 8-bit, tale formato è in grado di mantenere l'informazione originaria a 10-bit oppure 12-bit.
Come è evidentemente anche il fatto se debba sussistere questo passaggio ADC, vi possano essere crosstalk, sporcizia EM, o altro.

Per chi volesse documentarsi, sui forum di fotografia c'è gente piuttosto competente.
Per chi volesse documentarsi ci sono manuali tecnici da comprare o trattazioni scientifiche da leggere. Purtroppo la conoscenza dei forum è sempre lacunosa e quindi sarebbe più saggio usarli come strumenti per end-user per sapere del risultato finale della fotocamera e/o divertirsi in compagnia.

io non lo so: dimmelo tu. Ma prima leggiti questo thread
http://www.hwupgrade.it/forum/showthread.php?t=1666559
e, in particolare, questo articolo

http://www.luminous-landscape.com/t...esolution.shtml

e magari intervieni pure a correggere le stupidaggini che sono state dette da utenti ignoranti che non capiscono nulla di fotografia, di ottica e di elettronica.
Spero che a questi punti abbia chiarito abbastanza la questione. Non so di che stupidaggini di utenti ignoranti tu stia parlando, finora ho sentito la necessità di correggere solo quello che hai scritto te, e non sento il bisogno di andare a cercarmi rogne.

io mi fido di quello che riporta la letteratura sui filtri di ricostruzione di tipo box, tent, gaussian, bi-cubic, sinc function, ecc. E posso dimostrare quello che dico.
Hai i libricini a casa? Dicono che i filtri box siano cattivi e i tent siano buoni? La teoria va bene, ma è poi la pratica quella più importante.

non ho risposto perchè non pertinente all'argomento trattato e non calzante come esempio. Un segnale a risoluzione maggiore di cosa. Paragoni un segnale fullHD a cosa? Manca il soggetto.
Te la faccio più chiara possibile: è meglio far girare il giochino a 2560x1600, oppure farlo girare a 1280x1024 con AA 4X? Io voto la prima.
A parità di pannello e risoluzione, chiaro.

Quale sarebbe il segnale a frequenza minore? E quale quello a frequenza maggiore? Quali sarebbero le informazioni perse? Ovviamente riferendosi al campo dell'elaborazione delle immagini, non ad altri.
Parlavamo di MP3. Comunque traslando il tutto all'elaborazione di immagini, questo è un esempio di upsampling di immagine con un algoritmo basilare di edge detect:
Link ad immagine (click per visualizzarla)
L'immagine risultante è certamente gradevole alla vista, ma è profondamente diversa da quella di partenza. Prendiamo ad esempio la pupilla che perde del tutto la sua rotondità, le sue sfumature, e diventa quindi del tutto innaturale.

Porta esempi concreti, attinenti all'argomento trattato, poi ne riparliamo.
Io porto solo esempi concreti.
Non sono in grado di parlare in linea teorica se non collego il tutto a qualcosa di concreto. Sembra che tu abbia invece particolari capacità che ti portino a direche "il filtro tent è il migliore sulla piazza", senza prima avere visto neppure due immagini una di fianco all'altra che lo dimostrino (io in questo caso le ho viste, e successivamente le mostrerò, e proprio non la ritengo una affermazione correttissima).

Resta il fatto che anche quelle con milioni di pixel soffrono di aliasing
Il punto non è eliminare l'aliasing, il punto è fare in modo che il fenomeno dell'aliasing sia trascurabile in riguardo alle nostre capacità sensoriali.

ma anche no; è l'esatto contrario: nelle immagini in movimento, la fortuna è che ci sono più forme di antialiasing concorrenti. Questo perchè le immagini in movimento presenterebbero, altrimenti, ancora più aliasing (c'è quello temporale oltre alle forme di aliasing spaziale).
spatial e temporal aliasing sono problemi del tutto particolari su cui francamente non mi sento di potermi sbilanciare; fra l'altro succedono anche nella vita reale (oppure in flussi video registrati), percui non sono probabilmente la priorità.

ti ho invitato più di una volta ad aprire un thread in schede video, per denunciare tutte le stupidaggini che dico e per propagandare le tue verità. Cosa aspetti a farlo, invece di inquinare in continuazione altri thread? In tal modo, non soltanto le cose resterebbero scritte, ma tutte confinate all'interno della stessa discussione.
La visibilità in schede video è confinata perlopiù ai ragazzini in procinto di acquistare VGA. Noto in te un comportamento che non mi so spiegare, alcuni dicono che tu abbia una certa preferenza verso il competitor rosso, e mi ricordo in effetti una specie di tuo volantinaggio nel forum già ai tempi di R5x0.
Poichè alcune azioni danno modo di intendere l'inizio di tale atteggiamento già dal 2004/2005, il che fa già parecchi anni, vorrei lasciare la possibilità anche alle altre persone di poter giudicare in merito.

il punto è proprio questo: che l'immagine ricostruita non è uguale all'immagine reale e non lo è perchè ci sono tutta una serie di fenomeni di interferenza che impediscono che ciò avvenga. Di fatto, non abbiamo idea di quale sia l'immagine reale (in computer grafica) perchè vedioamo solo l'immagine ricostruita. Si continua a parlare in maniera riduttiva di aliasing come se fosse solo qualche scalettaura su una linea obliqua. Niente di più falso: quella è solo una manifestazione di un tipo di aliasing (jagged).
Mi darai però atto che questa sia la manifestazione più fastiodiosa agli occhi del videogiocatore esigente.

Ce ne sono tante altre che provocano artefatti, alterazione dei colori, errori nella riproduzione degli oggetti. Ed è un fenomeno ineliminabile, in quanto intrinseco ad ogni processo di digitalizzazione delle immagini o dei suoni o di qualunque altra cosa. L'unica cosa che si può fare è tentare di ricostruire al meglio il segnale originale e questo significa che non è sufficiente utilizzare il giusto numero di campioni ma anche un corretto algoritmo di ricostruzione (e il box filter, in questo ambito, è il peggiore in assoluto).
In un mondo fittizio l'alterazione di colori non è cosa grave, e artefatti e/o errori nella riproduzione di oggetti sono cose che francamente non credo un filtro anti-aliasing sia tenuto a correggere (o comunque non deve essere il suo principale scopo).

un filtro di tipo fsaa agisce [...]
Perfetto (a parte che tali svantaggi non sono poi davvero rilevabili), quindi perchè mi dai contro se affermo il filtro anti-aliasing non sia propriamente il pinnacolo della tecnica, e sarebbe meglio si aumentasse la risoluzione in game, per ridurre la schiavitù da essi?

Purtroppo, poichè gli algoritmi i tipo box sono i più facili da implementare, si è, da sempre, fatto ricorso a questi.
Mi dirai anche che la potenza in gioco fino a poco fa non permetteva altre realistiche scelte.

Il MSAA utilizzato è un box [...]. E per questo motivo, questo tipo di algoritmi sono limitati all'uso di edge AA. Il MSAA agisce, formalmente, come il FSAA di tipo SS; ovvero moltiplica l'immagine per n, fa interpolazione lineare e ridimensiona. La differenza è che lo fa solo sulla geometria dell'immagine e non fa il calcolo della media dei valori degli n subsample, ma applica a tutti il valore del pixel campione. In pratica, riduce le scalettaure ispessendo le linee e sfumandole ma agisce solo su quelle.
Il tent è un filtro di tipo bilineare, migliore del box, perchè utilizza funzioni di ricostruzione triangolare che hanno il vantaggio di ridurre le aree delle componenti in alta frequienza che vanno tagliate (quindi l'immagine ricotruita perde meno in fatto di contrasto), ma resta un algoritmo limitato ai soli bordi delle figure.
Non è che iò box o il tent rimuovano le scalettature meglio; il fatto è che gli altri (che sono qualitativamente migliori) sono anche più difficili da implementare via HW perchè richiedono algoritmi non lineari (e non possono essere eseguiti dalle FF delle rop's).
Gli ultimi algoritmi di edge detect agiscono solo sulle linee non disposte lungo gli assi x e y; questo ha diminuito il peso computazionale dell'AA ed ha anche ridotto l'impatto negativo sull'immagine (limitando le zone a ridotto contrasto).
In ogni caso, l'efficacia di un algoritmo di AA va valutata su screen e non su immagini in movimento, poichè in queste ultime si aggiunge il blurring introdotto dagli algoritmi di temporal AA. Quindi le immagini in movimento evidenziano meno scalettature ed altri artefatti ma sono anche meno nitide.
Il box filter è un algoritmo che, per quanto perfezionato, è ormai arrivato al suo limite ed è questo il motivo per cui nelle prossime dx è prevista anche l'adozione di algotimi di AA di tipo custom basati su funzioni non lineari.
Ti ringrazio del tempo perso per dare una sommaria spiegazione dei vari filtri, però ho ancora molte cose che non mi tornano.

Ad esempio della tua esemplificazione del MSAA in un edge. Questo non mi torna proprio.

Qua c'è scritto che il MSAA non è altro che un FSAA che utilizza 1 colour sample e 4 z invece che 4 colour (texture) e 4 z:
http://www.pureoverclock.com/printe...=647&page=2
Non parla di geometrie o altro.

Inoltre dal SDK delle DX10 c'è una funzione chiamata MultiSampleEnable che, per quanto non sia un programmatore, mi pare di capire serva proprio a definire il comportamento del filtro MSAA in presenza di texture (se processare l'intera superficie, oppure solo quella interessata dal triangolo).

Quindi, tutt'alpiù potremmo dire che il filtro di MSAA sia limitato nell'intorno del pixel.

Infatti, i CFAA di AT* di tipologia narrow tent e wide tent (di cui, se tu sei l'ideatore, ti maledico ), basati sul MSAA, blurrano in modo a mio parere ignobile tutta l'immagine (textures comprese), e non solo i bordi delle geometrie.
Proprio perchè, oltre a non avere algoritmi di edge detect, si azzardano (e pensare che questa dovrebbe esser la loro forza!) a fare un average anche dei pixel vicini.
A mio modo di vedere è una schifezza che non si vedeva dai tempi del Quincux di NVID*A (annata 2001), ma quantomeno lei, con umiltà, l'ha poi rimosso dalle successive VGA.
Qui un esempio:
http://www.xbitlabs.com/misc/pictur...FAA.jpg&1=1
http://www.xbitlabs.com/misc/pictur...6xQ.jpg&1=1
Source:
http://www.xbitlabs.com/articles/vi...tecture_16.html
(stavolta niente amicone Derek )

Inoltre, AT* ha proprio aggiunto in un suo CFAA un vero algoritmo di edge detect (adaptive), basato su MSAA, che fra l'altro funziona pure bene (ed è l'unica cosa valida del CFAA e che invidio).
http://www.xbitlabs.com/articles/vi...-hd4850_19.html

Ricordo inoltre che le schede HD2900, HD38x0 avevano un deficit architetturale nell'anti-aliasing resolve e quindi l'utilizzo di filtri custum basati su Shader (CFAA) potrebbe, sì, esser visto come una naturale evoluzione della tecnica (datosi la generalizzazione delle architetture in questo senso), ma anche come una necessaria pezza. Con HD4850 potrebbe non esser stato un caso che si sia ritornati sui suoi passi, fixandolo e potenziandolo.
yossarian15 Dicembre 2008, 21:23 #690
Originariamente inviato da: MiKeLezZ

Credo che in questo caso le scalettature ci siano eccome.


no; se guandi un TV 17" 1024 da una "giusta" distanza, non vedi artafetti apparenti; il motivo è che c'è un filtro AA attivo anche se non lo sai (anzi più di uno). Senza tener conto del fatto che la risoluzione non modifica la frequenza di campionamento spaziale.
Originariamente inviato da: MiKeLezZ
Ho parlato del MSAA come una variante del FSAA. Sono tuttora convinto di non aver detto alcuna inesattezza.


il MSAA, per giunta box, non può essere un FSAA, perchè quando fa upscalig per blurrare, applica a tutti i subsample lo stesso colore del pixel campione; questo spalma un singolo colore su una superficie più ampia, senza transizioni cromatiche (come fa il SSAA). La conseguenza è che,
se hai linee sottili e rapide transizioni di colore nelle vicinanza, queste transizioni spariscono alterando il risultato cromatico finale. Per questo motivo lo si applica solo sui bordi dei poligoni e neppure su tutti, ma solo su quelli non paralleli agli assi x e y. Poi, volendo, puoi anche applicare un siffatto filtro a tutta la scena: lo fai a tuo rischio e pericolo

Originariamente inviato da: MiKeLezZ
Hai fatto un casino e un mischione di roba diversa.
I sensori sono il foveon, che sono 3 layer, uno sopra l'altro, di colori RGB.
Oppure il più tipico Color Filter Array (CCD e Super CCD), che è una disposizione a singolo strato di tipo
GB
GR
In questo caso a ogni pixel corrisponde comunque un solo colore.
Il SuperCCD è una sua variante che utilizza generalmente fotodiodi di forma ottagonale invece che quadrata, per aumentare l'informazione ricevuta.
Ci sono diverse evoluzioni.
Il Super CCD di Fujifilm utilizza per ogni pixel un array di fotodiodi RRGBB più 8 mezzi G.
L'evoluzione SR per ogni pixel adotta due fotodiodi di colore simile, che possono o essere accoppiati, oppure inseriti fra gli interstizi fra gli uni e gli altri. Emulano una risposta non lineare, per un miglior range dinamico.
Anche in questo caso per ogni pixel c'è solo un colore (più i mezzi vicini).


spero ci si perdoni questo OT fotografico

I sensori sono di 2 tipi: X3 (foveon) con elementi sovrapposti e a matrice bayer: questi ultimi si suddividono in ccd, sccd, cmos e nmos (i live mos di panasonic e olympus) a seconda del tipo di tecnologia dei circuiti elettroici e della tipologia di matrici di fotodiodi impiegata.
Un X3 ha 3 strati di pixel, nell'ordine blu, verde e rosso, partendo dall'alto (il motivo del posiionamento è dettato dalle differenti lunghezze d'onda delle radiazioni incidennti: ovvero maggior lunghezza d'onda, matrice più in profondità. La tecnologia elettronica è di tipo cmos. Ogni strato ha una matrice di fotodiodi monocromatici che non necessita di filtro di bayer perchè è la stessa posizione ad indicare al processore il colore da attribuire alla radiazione incidente. L'interpolazione avviene in verticale, ovvero si prendono i valori del singolo fotosito e dei due immediatamente sotto di esso (stessa proiezione di area) e si interplano i valori di luminanza e crominanza per ricavare il risultato finale. Quindi, anche il foveon è soggetto a problemi di aliasing dovuto a campionamen ot spaziale di grandezze continue e a disturbi introdotti dall'interlacciamento. Inoltre è ugualmente soggetto al fenomeno del pixel crosstalking. Quelli da cui è esente sono altri fenomeni di interferenza (ad esmepio il blooming che, però, è più tipico dei ccd). Altro difetto da cui il foveon è esente è il moire, ovvero il disturbo (di tipo aliasing) causato dal campionamento di una griglia priodica (ad esempio, una trama di un tessuto) attraverso un'altra griglia periodica (che è il sensore della fotocamera) con frequenza differente. Per questo motivo, le fotocamere con filtro bayer hanno bisogno di un filtro anti moire posto sul sensore. Si tratta di una lente che applica una sorta di AA 4x (da un punto incidente ne ricava 4) con pattern non ordinato, in modo da impedire che l'occhio vedo questo fastidioso effetto.
I sensori a matrice bayer, invece, hanno una matrice di fotodiodi monocromatici con applicato sopra un filtro che lascia passare solo la radiazione conteniuta in un determinato range di frequenze (ottiche), eliminando l'altra. Questo permette al processore, in base al valore della radiazione incidente di attribuire a quel pixel il valore di crominanza e luminanza corretti. Un filtro bayer ha 4 pixel disposti a quadrato, con i colori RGBG che si ripetono per tutta l'estensione del sensore. Quando si va a ricostruire il segnale di un singolo pixel, non si fa alltro che prendere i valori di 4 pixel contigui (monocromatici) e fare un'operazioni di interpolazione di questi valori; in pratica, ogni 4 pixel monocromatici si ricava un pixel a colori. L'uso dei due verdi dipende dal fatto che l'occhio è più sensibile a frequenza attorno ai 500 nm (tra il verde ed il giallo). Ovviamente, ogni pixel monocromatico è utilizzato più volte in modo da poter ricavare una risoluzione in pixel a colori molto prossima a quella fisica del sensore. La matrice bayer è affetta da moire (per questo l'ho nominato anche se tu avevi omesso di farlo) ed è affetta anche da disturbi dovuti all'interlacciamento e ad altri fenomeni (pixel crosstalk, blooming, ecc). E, altresì. affetta dal tipico aliasing dovuto al cmapionamento di grandezze continue e a quello introdotot dalle operazioni di quantizzazione e ricostruzione del segnale eseguite a livello di singolo bit (disturbo che affligge tutti i sensori, compreso il foveon).
Il sccd è un tipo di ccd che fa uso di 2 tipi di pixel: uno di dimensioni maggiori, destinato a catturare le basse luci, uno di dimensioni minori destinato alle alte luci. Questo perchè il sensore più grande può permettere di aumentare l'amplificazione del segnale senza andare in ssturazione troppo presto, permettendo di risolvere i dettagòli in base luci, mentre quello piccolo satura prima di uno di dimensioni standard ma permette, comunque di avere una risposta in frequenza tale da lasciare abbastanza dettaglio alle alte luci. Questo perchè la risposta dell'occhio è di tipo logaritmoco ed è più sensibile alle basse che alle alte luci, quindi è in cindizione di notare perdita di dettagli molto più nelle zone scure che in quelle molto chiare. Per ogni pixel, si fa l'interpolazione di 8 pixel monocromatici (4 della matrice bayer moltiplicati per 2, poichè sono uno picoclo ed uno grande). Questo espediente permette di avere una gamma cromatica più ampia a discapito della risoluzione reale (una 12 Mpixel, di fatto, ha 6 Mpixel di ciascuno dei due tipi).

Originariamente inviato da: MiKeLezZ

Le microlenti sono tutt'altra cosa, e vengono (eventualmente) utilizzate per migliorare il fill rate del sensore, cioè dato che ogni fotodiodo non è direttamente appiccicato a quello vicino, c'è dello spazio vuoto fra i due. Le microlenti si posizionano sopra e focalizzano la luce verso il fotodiodo, altrimenti sarebbe andata in questo spazio. Ciò causa però il famoso purple fringing.


le microlenti hanno l'unico scopo di aumentare l'efficienza quantica del sensore; un aumento del SNR di tipo quantico, unito alla diminuzione del valore di soglia della dark current (che comporta una diminuzione del rumore di tipo fixed pattern) producono un aumento della gamma dinamica. Il fringing ha altre origini da ricercarsi nei fenomeni di rifrazione e diffrazione ottici. Altra cosa ancora e la scarsa nitidezza dovuta all'errato rapporto tra pixel pitch e disco di airy, cosa piuttosto comune nei sensori di piccole dimensioni. Questo fenomeno si combatte evitendo di produrre sensori troppo affollati con fotositi troppo piccoli e distanze troppo ridotte (ovvero frequenze di campionamento spaziale troppo elevate).

Originariamente inviato da: MiKeLezZ

Facile sbagliare quando non si è più nel campo di studio, eh?
Se mi avete seguito nel discorso di cui sopra, avrete letto che un singolo pixel è formato dall'informazione del fotodiodo corrispondente più parte di informazione di quelli vicini, è questo che, se i megapixel non sono sufficienti, può causare impastatura dell'immagine (poichè per un dato pixel si ha informazione anche su quelli vicini - è simile al principio dell'anti-aliasing lineare).


è l'esatto contrario: si ha perdita di nitidezza, dovuta a diffrazione, quando i fotositi sono troppo piccoli (1,4-2 volte minori del disco di airy per una determinata apertura) e troppo vicini tra loro. Questo dal punto di vista ottico; da quello elettronico, pixel più piccoli sono più soggetti al fenomeno del crosstalking che è un disturbo che introduce una componente di "rumore" tra pixel contigui. Per combatterlo si studiano particolari layer su cui alloggiare i fotodiodi, ma la misura migliore è non andare al di sotto di determinate dimensioni di pixel pitch e determinate distanze tra pixel. Quanndo la distanza tra due pixel è tale da far si che i rispettivi dischi di airy non si sovrappngano e neppure si tocchino le aree centrali, ma si sovrappongano solo, eventualmente, le prime corono "scure", si ha la condizione di maggior contrasto e, di conseguenza, la maggior nitidezza apparente (nel senso che non si tratta di nitidezza reale, dovuta al potere risolvente del sensore nei confronti del dettaglio fice, ma nitidezza percepita dal'occhio che è più sensibile ai contorni marcati ed alle zone in cui l atransizione dell'intensità luminosa è netta).

Originariamente inviato da: MiKeLezZ


A questo bisogna aggiungere che non in tutti i casi ad ogni pixel corrisponde il vero colore, ma solo l'informazione relativa al componente R, o G, o B (e quindi per avere tale informazioni bisognerà relazionare fra loro i pixel adiacenti, secondo algoritmi gelosamente custoditi da ogni casa).


si tratta di algoritmi che fanno una media del valore della crominanza per ogni pixel utilizzando la luminanza come funzione peso. In altre parole, epr ogni pixel rilevano la frequenza del segnale incidente e lo moltiplicano per il valore dell'intensità luminosa associata a quella frequenza; quindi fanno la somma dei 2 valori di G e dei valori di R e B associati a quel determinato pixel (a colori). Quelli che variano sono gli algoritmi che introducono le correzioni ad eventuali errori di calcolo.

Originariamente inviato da: MiKeLezZ

Inoltre è evidente che la qualità del sottosistema sensore sia anche determinata dalla capacità dell'elettronica usata.
Il fotodiodo deve trasformare l'energia in carica, la carica in tensione, e questa va amplificata per il circuito di trattazione del segnale (che può esser direttamente vicino al fotodiodo, come nel caso del CMOS, o distaccato, come nel CCD).
Il ADC (analog to digital converter) a seconda del taglio del device (consumer, prosumer, pro) sarà quindi a 8-bit, 10-bit, oppure 12-bit, e maggiore è il valore, maggiore sarà anche la precisione dell'informazione (i quindi anche tutti i calcoli successivi).
Questo è anche il perchè i professionisti preferiscano scattare in RAW, datosi che, al contrario di JPEG che downsampla comunque a 8-bit, tale formato è in grado di mantenere l'informazione originaria a 10-bit oppure 12-bit.
Come è evidentemente anche il fatto se debba sussistere questo passaggio ADC, vi possano essere crosstalk, sporcizia EM, o altro.


in linea di massima funziona così; magari l'ordine non è proprio quello, magari hai saltato qualche passaggio, hai dimenticato (?) di parlare degli errori di quantizzazione e di come il rischio aumenti aumentando il numero di bit (motivo epr cui è meglio avere un filtro che elimina gli errori di interpretazione sulle frequenze) e hai omesso il fatto che ci sono fotocamere che lavorano a 16 bit per canale (medio formato). Ma non è un forum di fotografia e per chi fosse interessato, l'invito è quello di iniziare a frequentare i forum appositi.

Originariamente inviato da: MiKeLezZ

Spero che a questi punti abbia chiarito abbastanza la questione. Non so di che stupidaggini di utenti ignoranti tu stia parlando, finora ho sentito la necessità di correggere solo quello che hai scritto te, e non sento il bisogno di andare a cercarmi rogne.


io speravo che tu venissi a correggermi anche di là

Originariamente inviato da: MiKeLezZ

Hai i libricini a casa? Dicono che i filtri box siano cattivi e i tent siano buoni? La teoria va bene, ma è poi la pratica quella più importante.


no, ho libricini che dicono che un filtro di ricostruzione bilineare è migliore di uno lineare: provare per credere

Originariamente inviato da: MiKeLezZ

Te la faccio più chiara possibile: è meglio far girare il giochino a 2560x1600, oppure farlo girare a 1280x1024 con AA 4X? Io voto la prima.
A parità di pannello e risoluzione, chiaro.

hai aliasing sia nell'un caso che nell'altro. Nel primo caso si nota di più se fai uno screen e un crop al 100%

Originariamente inviato da: MiKeLezZ

Parlavamo di MP3. Comunque traslando il tutto all'elaborazione di immagini, questo è un esempio di upsampling di immagine con un algoritmo basilare di edge detect:
Link ad immagine (click per visualizzarla)
L'immagine risultante è certamente gradevole alla vista, ma è profondamente diversa da quella di partenza. Prendiamo ad esempio la pupilla che perde del tutto la sua rotondità, le sue sfumature, e diventa quindi del tutto innaturale.

peccato che non si parli, in questo caso di upsampling di una immagine a risoluzione minore (e, quindi, con pixel dai valori fittizi inseriti qua e là, ma di dfferenti risoluzioni native, con risultati diversi. In ogni caso, i filtri di ricostruzione usati di tipo box o tent non sono ottimali per riprodurre funzioni di ordine superiore. Questo non significa che non servono ma che se ne possono impiegare di migliori. La soluzione non è certo l'aumento della risoluzione però.

Originariamente inviato da: MiKeLezZ

Io porto solo esempi concreti.
Non sono in grado di parlare in linea teorica se non collego il tutto a qualcosa di concreto. Sembra che tu abbia invece particolari capacità che ti portino a direche "il filtro tent è il migliore sulla piazza", senza prima avere visto neppure due immagini una di fianco all'altra che lo dimostrino (io in questo caso le ho viste, e successivamente le mostrerò, e proprio non la ritengo una affermazione correttissima).

il filtro tent utilizza un algoritmo bilineare, il box un algoritmo lineare: se conosci la differenza e sai cosa comporta in frequenza ti sei risposto da solo.

Originariamente inviato da: MiKeLezZ

Il punto non è eliminare l'aliasing, il punto è fare in modo che il fenomeno dell'aliasing sia trascurabile in riguardo alle nostre capacità sensoriali.


per questo si inventano e si perfezionano i filtri; per questo c'è gente che passa la vita astudiare queste stupidate che si potrebbero risolvere, secondo te, aumentando la risoluzione .

Originariamente inviato da: MiKeLezZ

spatial e temporal aliasing sono problemi del tutto particolari su cui francamente non mi sento di potermi sbilanciare; fra l'altro succedono anche nella vita reale (oppure in flussi video registrati), percui non sono probabilmente la priorità.


lo spatial aliasing è un fenomeno comune per chi lavora con immagini digitali fisse ed in movimento; il temporal solo per chi lavora con immagini in movimento. Ma, ripeto, sono problemi comuni che si affronta tutti i giorni. Lo spatial mette in relazione frequenze di campionamento spaziali (a che distanza sono presi i campioni sulla griglia che deve riprodurre o catturare l'immagine) e relative distribuzioni d'onda in frequenza; il temporal le frequenze di campionamento temporali (la frequenza di campionamento dei frame) con le relative distribuzioni in frequenza dei segnali (matematicamente si ha una convoluzione in uno spazio a cui corrisponde una moltplicazione nell'altro, in entrambi in casi, per chi ha idea di cosa si tratti).

Originariamente inviato da: MiKeLezZ

La visibilità in schede video è confinata ai ragazzini in procinto di acquistare VGA, in ogni caso tu non dici stupidaggini (così come io non dico sempre la verità.
Dici molte cose giuste, tristemente però tagliate di importanti parti e/o stravolte in modo da denigrare NVIDIA ed esaltare ATI (mi ricordo con particolare dolo i tempi di R5x0 e il tuo volantinaggio nel forum).
E' un comportamento che reputo bizzarro e che ho avuto modo di riscontrarti da circa il 2004/2005, e da cui vorrei mettere in guarda altre ignare persone.


Invece così facendo che visibilità hai? E agli occhi di chi devi metterti in mostra?
La sciando da parte, epr ora, questo discorso, R580 si è rivelato, come avevo previsto, ampiamente migliore di GT7x, sia in fatto di prestazioni allora che in fatto di longevità adesso. Capisco che a qualche fanboy nVIDIA certe affermazioni dell'epoca possano aver dato fastidio, ma i fatti sono sotto gli occhi di tutti.
In ogni caso, cosa mi devo aspettare, un marcamento a uomo e continue frecciatine e battutine di dubbio gusto e di nulla utilità, come stai facendo adesso? Cosa speri di ottenere? Cosa speri di guadagnarci? Oltre tutto, la tua è un'accusa piuttosto grave e ti auguro che sia ben circostanziata e documentata. Infine, fino a prova contraria, non sono io che ometto o non cito le fonti, ma sei tu che riporti spezzoni di discorso, omettendo parti importanti, non riporti i link, non citi fonti, e fai operazione di taglia incolla prendendo solo ciò che ti fa comodo. Ne abbiamo avuto un esempio anche in questo thread. Prova a chiedere in giro che fama ti sei fatto e se sei considerato imparziale o meno.
Mettiamola così: da questo momento, qualsiasi riferimento a me o a ciò che ho detto, qualsiasi battuta che mi riguardi o allusione nei miei confronti, di cui dovessi venire a conoscenza e qualsiasi tipo di provocazione o tentativo di rissa verbale, sarà segnalato ad un moderatore. Vediamo se così si riesce a porre fine alla tua guerra personale.

Originariamente inviato da: MiKeLezZ

Mi darai però atto che questa sia la manifestazione più fastiodiosa agli occhi del videogiocatore esigente.

dipende; ho senpre sostenuto che è una delle più evidenti, ma non è certo l'unica e non necessariamente la più grave.

Originariamente inviato da: MiKeLezZ

In un mondo fittizio l'alterazione di colori non è cosa grave, e artefatti e/o errori nella riproduzione di oggetti sono cose che francamente non credo un filtro anti-aliasing sia tenuto a correggere (o comunque non deve essere il suo principale scopo).


un filtro AA è tenuto a correggere tutti gli errori derivanti da una non corretta interpretazione delle frequenze del segnale campionato. Di qualunque natura essi siano.

Originariamente inviato da: MiKeLezZ

Perfetto (a parte che tali svantaggi non sono poi davvero rilevabili), quindi perchè mi dai contro se affermo il filtro anti-aliasing non sia propriamente il pinnacolo della tecnica, e sarebbe meglio si aumentasse la risoluzione in game, per ridurre la schiavitù da essi?


per due motivi: la maggior risoluzione non risolve i problemi di aliasing (la non corretta interpretazione delle frequenze comunque rimane). Non è possibile spingersi al di sotto di un determinato pixel pitch e non si può andare al di sotto di una determinata distanza tra due pixel contigui. Ossia, non è possibile creare un amatrice che sia assimilabile ad una superficie piana. Queste limitazioni fanno si che, anche aumentando la risoluzione, la frequenza di campionamento spaziale (distanza tra pixel) non diminuisce (anzi, al di sotto di un certo pixel pitch aumenta per evitare fenomeni di interferenza di tipo elettrico). Lo stesso accade con i sensori delle fotocamere: ad un aumento della risoluzione non corrispomde un aumento della frequenza di campionamento spaziale.

Originariamente inviato da: MiKeLezZ

Mi dirai anche che la potenza in gioco fino a poco fa non permetteva altre realistiche scelte.


altre scelte sono filtri di ordine superiore che permetterano un apiù corretta ricostruzione del segnale (ed è quello che introdurranno le dx10.1 e le dx11).

Originariamente inviato da: MiKeLezZ

Ti ringrazio del tempo perso per dare una sommaria spiegazione dei vari filtri, però ho ancora molte cose che non mi tornano.

Ad esempio della tua esemplificazione del MSAA in un edge. Questo non mi torna proprio.

Qua c'è scritto che il MSAA non è altro che un FSAA che utilizza 1 colour sample e 4 z invece che 4 colour (texture) e 4 z:
http://www.pureoverclock.com/printe...=647&page=2
Non parla di geometrie o altro.


In effetti è alquanto sommaria (ma, a giudicare da certe consuderazioni, necessaria) e mancano tutte le formule . C
omunque il tempo l'ho perso perchè c'è il rischio che qualcuno, leggendo certi intervennti, si faccia un'idea sbagliata di cosa sia l'aliasing e di come funzioni l'antialiasing e a cosa serva.
li possono scrivere ciò che voglio: se vuoi farti una cultura cerca articoli o lezioni universitarie sull'argomento: ce ne sono anche on line. Ovvio che se volgio posso applicare un MSAAbox a tutta la scena: i risultati?..........beh, lasciamo perdere

Originariamente inviato da: MiKeLezZ

Inoltre dal SDK delle DX10 c'è una funzione chiamata MultiSampleEnable che, per quanto non sia un programmatore, mi pare di capire serva proprio a definire il comportamento del filtro MSAA in presenza di texture (se processare l'intera superficie, oppure solo quella interessata dal triangolo).

Quindi, tutt'alpiù potremmo dire che il filtro di MSAA sia limitato nell'intorno del pixel.

Infatti, i CFAA di ATI di tipologia narrow tent e wide tent (di cui, se tu sei l'ideatore, ti maledico ), basati sul MSAA, blurrano in modo ignobile tutta l'immagine (textures comprese), e non solo i bordi delle geometrie.
Proprio perchè, oltre a non avere algoritmi di edge detect, si azzardano (e pensare che questa dovrebbe esser la loro forza!) a fare un average anche dei pixel vicini.
Una schifezza che non si vedeva dai tempi del Quincux di NVIDIA (annata 2001), ma quantomeno lei, con umiltà, l'ha poi rimosso dalle successive VGA.
Qui un esempio:
http://www.xbitlabs.com/misc/pictur...FAA.jpg&1=1
http://www.xbitlabs.com/misc/pictur...6xQ.jpg&1=1
Source:
http://www.xbitlabs.com/articles/vi...tecture_16.html
(stavolta niente amicone Derek )


il problema di un filtro è che uso se ne fa. Se so che un box o un tent non posso utilzzarli su tutta la scena, faccio una cappellata se decido altrimenti. Il tent può essere abbinato ad un algoritmo di edge detect (ed è opportuno farlo), ma non si appoggia a quello del msaa box e, quindi, non ne fa uso in automatico; se non lo fai ti blurra tutto. Comunque, tranquillo: se avessi fatto lo stesso col MSAA box i risultati sarebbero stati anche peggiori.

Originariamente inviato da: MiKeLezZ


Inoltre, ATI ha proprio aggiunto in un suo CFAA un vero algoritmo di edge detect (adaptive), basato su MSAA, che fra l'altro funziona pure bene (ed è l'unica cosa valida del CFAA e che invidio).
http://www.xbitlabs.com/articles/vi...-hd4850_19.html


non ha aggiunto nulla: il CFAA funziona appoggiandosi all'edge detect del MSAA box. Infatti non è possibile attivare il CFAA se non si usa il MSAA almeno in modalità 4x. Questo perchè con algoritmi che usano sparsed grid servono almeno 4 sample per fare correttamente edge detect.

Originariamente inviato da: MiKeLezZ

Ricordo inoltre che le schede HD2900, HD38x0 avevano un deficit architetturale nell'anti-aliasing resolve e quindi l'utilizzo di filtri custum basati su Shader (CFAA) potrebbe, sì, esser visto come una naturale evoluzione della tecnica (datosi la generalizzazione delle architetture in questo senso), ma anche come una necessaria pezza. Con HD4850 potrebbe non esser stato un caso che ATI sia tornata sui suoi passi.



nessun deficit: mancavano del circuito di resolve in FF delle rop's. E' stato di nuovo aggiunto nella serie 4xx0 (con particolari ottimizzazioni per MSAA 4x e 8x).
I filtri custom sono ben altra cosa: anzi il loro utilizzo è previsto dalle dx10.1 (e la 2xx0 è dx10). L'idea era quella di sfruttare gli shader per fare resolve anche per il MSAA box

Devi effettuare il login per poter commentare
Se non sei ancora registrato, puoi farlo attraverso questo form.
Se sei già registrato e loggato nel sito, puoi inserire il tuo commento.
Si tenga presente quanto letto nel regolamento, nel rispetto del "quieto vivere".

La discussione è consultabile anche qui, sul forum.
 
^