PDA

View Full Version : Filtraggio anisotropico e schede Radeon X800: interessanti novità


Redazione di Hardware Upg
19-05-2004, 07:15
Link alla notizia: http://news.hwupgrade.it/12447.html

A seguito di alcune analisi pubblicate on line nei giorni scorsi, ATI spiega ufficialmente come operi il filtraggio anisotropico nelle proprie schede R420.

Click sul link per visualizzare la notizia.

pollicino
19-05-2004, 07:48
Ricomincia la guerra :D staremo a vedere.

vincino
19-05-2004, 08:01
Si anche io ho notato la differenza... ci sono ben 3 pixel diversi confrontando i fotogrammi! Mi viene dai ridere... o da piangere, a sentire questi discorsi!

satrax82
19-05-2004, 08:05
Anche Ati incomincia a giocare sporco, Verogogna!!!

Lexon
19-05-2004, 08:22
ma invece di sparare sentenze ti sei letto la news???? anche il pezzo in inglese???

quoto in pieno vincino

Ciaoz

SirCam77
19-05-2004, 08:40
Quali sarebbero poi le interessanti novità?

malahead
19-05-2004, 08:44
e pensare che qualcuno si illude che queste architetture siano sfruttate al meglio.....

blubrando
19-05-2004, 08:44
più che altro questa news è perchè se ne sono accorti di questo algoritmo. pensate a tutte le volte che NON se ne accorgono

bizzu
19-05-2004, 08:55
Ragazzi mi sapreste indicare qualche link dove viene spiegato il funzionamento di questi algoritmi?

IS_Fox_
19-05-2004, 09:03
"Anche Ati incomincia a giocare sporco, Verogogna!!!"


Scusa hai letto l'articolo? Mi sa di no!

Cifer
19-05-2004, 09:06
Non credo che Ati stia brevettando un cheat...

Sayan V
19-05-2004, 09:26
Ma ???
Io non ci vedo nulla di male nelle ottimizzazioni :O

faceva lo stesso nvidia per tirare su NV35 nei confronto di R350/360 .... adesso si sono invertite le parti ... tutto qui :rolleyes:

ballero
19-05-2004, 09:29
Il confine tra "ottimizzazione molto spinta che entra in funzione solo se" e "cheat", e' un confine molto sottile.

Vik Viper
19-05-2004, 09:34
Una certa serie di commenti dimostra l'importanza del ruolo del "giornalista" nello scrivere un articolo. Sia esso pure una mera "news". Il suo ruolo comincia (ed è già MOLTO marcato) nella scelta del titolo <<Filtraggio anisotropico e schede Radeon X800: interessanti novità>>; nello specifico direi nelle "interessanti novità".
Direi che questo indirizza in una maniera precisa il lettore su cosa aspettarsi dal contenuto; non vorrei esagerare ma il sospetto è che sia qcosa di non molto lontano dal clamoroso... di sicuro qcosa degno di attenzione (molta?).
Poi uno leggere le 4 righe seguenti e si cita un articolo di altri (non riportato) e si menziona di "dubbi" sulla "bontà" dell'algoritmo di ATI.
Si parla poi di "sospetto" e infine si riporta la risposta ufficiale della compagnia in causa (ATI) in lingua originale (che evidentemente, oltre che essere letta da ben pochi, in ancora meno capiscono)...
Mah, in fondo non mi stupisco neppure più di tanto se ad un lettore superficiale e frettoloso scappino commenti tipo: "Anche Ati incomincia a giocare sporco, Verogogna!!!"... Mirabile esempio di profonda riflessione sulla natura umana e delle aziende nel businness dell'hardware per la CG. Notevole!
Tuttavia vorrei cmq puntualizzare che forse l'impianto di questo articolo NON è il massimo che si possa chiedere quanto a chiarezza, meglio limpidezza.
Ma questa è una mia opinione. Quello che credo sia abbastanza certo (ma ovviamente mai del tutto) è che anche in notizie come questa si può vedere che il "modo" in cui viene riportato un fatto, finisce per renderlo cmq qcosa di diverso.
In fondo tra il lettore disattento e il redattore che agisce in un certo modo, forse è il redattore la persona cui far notare che qcosa non funziona...
Ma anche questa è una mia personale posizione (che già in altre occasioni ho avuto modo di esprimere, tra l'altro).
Scusate il disturbo...

Sayan V
19-05-2004, 09:38
Originariamente inviato da ballero
Il confine tra "ottimizzazione molto spinta che entra in funzione solo se" e "cheat", e' un confine molto sottile.

Secondo me è solo questioni di punti di vista :O

per le case costruttici sono sempre ottimizzazioni (delle vendite :D ) ...

per tutti gli altri no :asd:

Ieri Gainward in una e-mail (ricevuta anche da noi) affermava: "However, the reaction pattern of the chip vendors will never change. They will most likely issue a statement calling the “cheat” “the latest patent-pending blessing offering great value for the end user”. Amazing, isn't it?"
In pratica Gainward ironizza sul fatto che una volta scoperto l'inganno, questo diventa un'ottimizzazione d'ingegneria e non un semplice imbroglio...

lasa
19-05-2004, 09:43
A me per ora sembrano tutte fuffole.....

nonikname
19-05-2004, 10:30
Secondo me sono tutt'altro che frottole e Paolo Corsini è stato fin troppo "neutrale" ......

Mi spiego : la questione è da vedersi su quest'ottica

1) fino alla penultima revisione di Forceware l'abilitazione del filtro trilineare applicato con l'AF su Nvidia non era possibile via driver , tant'è che molti redattori hanno confrontato la 6800u alla X800Xt con le due opzioni Trilinear on e brilinear (un misto di bi e tri linear a seconda della posizione della texture)

2) adesso si scopre che neanche con i driver ATI c'è la possibilità di attivare il filtro trilineare e l'AF con le schede r420 , mentre sulle vecchie schede è possibile....

3) Ati si è sempre vantata di non fornire nessun ottimizzazione sui filtri , dicendo che le proprie schede sono le uniche a funzionare con il trilineare attivato sui filtri anisotropici

Qui c'è la prova:

http://www.computerbase.de/picture/news/7748/1.jpg

4) Ati ha risposto a computerbase dicendo che c'è un'ottimizzazione adattativa sul filtro anisotropico e dato che secondo loro non c'è decadimento di qualità hanno disattivato il trilinear dai driver , mentre per le 9800-9700 gli slider sul pannello di controllo del 3d , se settati a massima qualità , attivano il trilinear...


Dopo tutta la fatica che ha fatto la comunità internet per riuscire a far inserire nei driver Nvidia il trilinear+AF , ora si scopre che chi si vantava di non avere bisogno di nessuna ottimizzazione ( o presunte tali) non è esente da questi sporchi giochetti ......

Abbiamo visto tutti , in giro per il web , i bench con la 6800 opt off e non , mentre per la X800 non se ne è fatta parola , dato che nessuno ne era a conoscenza , ma ora molti siti si appresteranno a ri-testare le 2 schede , dato che se uno vuole avere un'idea chiara , i bench fatti precedentemente non hanno valore ....
(ora mi spiego come mai le r420 con l'AF non subivano quasi calo delle prestazioni )

Per me è tutt'altro che una semplice news , dato che porta a conseguenze di un certo peso :(

prova
19-05-2004, 10:38
Splendida la risposta di Ati: quella società mostra sempre più la propria serietà e l'importanza che dà alla qualità di immagine.

Tutto a posto quindi. Meno male!

nonikname
19-05-2004, 10:44
Mi sa che hai fatto un po di confusione.........

moGio
19-05-2004, 10:44
In effetti, viste le varie critiche, puo' essere utile una traduzione. Ci provo, ma non flagellatemi se sbaglio: non sono ne un traduttore ne un esperto di grafica informatica.

"
C'e' stata molta discussione recentemente a proposito dei nostri algoritmi di filtraggio trilineare.

The objective of trilinear filtering is to make transitions between mipmap levels as near to invisible as possible. As long as this is achieved, there is no “right” or “wrong” way to implement the filtering.

Per quanto concerne il raggiungimento di tale risultato, non c'e' una strada "giusta" o "sbagliata" per implementare il filtraggio.

Noi abbiamo aggiunto dell'intelligenza al nostro algoritmo di filtraggio per aumentare le prestazioni senza incidere sulla qualita' dell'immagine. come alcuni hanno scoperto, e' possibile notare differenze tra le nostre implementazioni di filtraggi tra la RADEON 9800XT e la RADEON X800. Tuttavia, queste differenze possono essere viste solo sottraendo istantanee prima e dopo ed amplificando il risultato. Nessuno ha dichiarato che una impementazione sia migliore di un'altra.

Il nostro algoritmo di analisi dell'immagine basato su tecniche di filtraggio delle textures e' in attesa di brevetto. Funziona determinando quanta sia la differenza tra un livello di mipmap ed il successivo e quindi applicando il livello di filtraggio appropriato. Si limita ad applicare questa ottimizzazione al tipico caso - nello specifico - dove le mipmap sono generate usando un filtraggio a rettangolo. In situazioni particolari, dove ogni mipmap puo' differire in maniera significativa dal livello precedente, non riceve ottimizzazioni. Questo include i casi estremi quali i livelli di mipmap colorati, ecco perche' i test basati su livelli colorati di mipmap mostrino risultati differenti. Giusto per essere chiari: non c'e' nessun rilevamento dell'applicazione che sta' girando; cio' si limita a mostrare quanto sia sofisticato l'algoritmo.

Noi incoraggiamo gli utenti a sperimentare spostando la barra di configurazione delle texture da "Quality" fino a "Performance" - vedrete giganteschi guadagni di prestazioni senza effetti sulla qualita' dell'immagine se non agli estremi, ed anche allora, l'effetto e' difficilmente dotabile. Noi confidiamo di dare ai giocatori la miglior qualita' d'immagine a tutti i livelli di prestazioni.

La Microsoft ha posto alcuni standard per il filtraggio delle texture ed il processo di certificazione della ditta include test estesi sulla qualita' dell'immagine per il filtraggio trilineare ed il mipmapping. I CATALYST hanno superato tutti questi test - e senza nessun rilevamento dell'applicazione in esecuzione, cosa che sarebbe potuta essere usata per evitare ad un algoritmo di piu' bassa qualita' di passare i test senza essere rilevato.

Infine, ATI considera la qualita' dell'immagine molto seriamente e confidiamo di aver posto un segno per tutta l'industria. Noi non sottovalutiamo facilmente modifiche ai nostri algoritmi di filtraggio, ed attuiamo una considerevole analisi sia online che offline prima di implementare le modifiche. Questo algoritmo e' in uso dal pubblico da oltre un anno nella nostra serie di prodotti RADEON 9600, e non abbiamo ricevuto nessun commento avverso sulla qualita' dell'immagine in quel periodo. Se qualcuno trovasse qualche degradazione di qualita' derivante da questo algoritmo, e' invitato a riportarlo alla ATI. Se ci fosse un problema, lo correggeremo.
"

moGio
19-05-2004, 10:52
ho scordato un pezzo:

The objective of trilinear filtering is to make transitions between mipmap levels as near to invisible as possible. As long as this is achieved, there is no “right” or “wrong” way to implement the filtering.

L'obbiettivo del filtraggio trilineare e' di rendere il piu' possibile invisibili le transazioni tra i diversi livelli di mipmap. Se tale obbiettivo viene raggiunto, non esiste una strada "giusta" ed una "sbagliata" di implementare il filtraggio.

Kicco_lsd
19-05-2004, 10:55
Bhe io nn seguo accanitamente come voi... ma le parole di ati mi sembrano più che confortanti, anzi mi sembran proprio beneauspicanti.

nonikname
19-05-2004, 10:57
Allora , d'ora in avanti , l'unico raffronto possibile fra le due marche deve essere fatto con Bilinear e AF , dato che solo Nvidia ha l'opzione full Trilinear+AF , mentre ati ha l'algoritmo per l'applicazione del tri-bilinear.........

Quella slide mostrata sopra parla chiaro , nella presentazione del X800 , Ati si vantava di non dover applicare "inaccettabili tucchi" che riducono l'ammontare del lavoro svolto:
- Riduzione del filtro Trilinear al bilinear
- Riduzione del L.O.D. (mipmap più piccoli)
Tutte fuffole , dato che l'algoritmo in fase di brevetto esegue questi due modalità a seconda del output generato......

Credo che comunque la slide della presentazione dell'X800 parli da sola......

dwfgerw
19-05-2004, 11:00
Anche Ati incomincia a giocare sporco, Verogogna!!!"

dm69
19-05-2004, 11:02
beh visto che sul filtro anisotropico si possono fare un po' troppe ottimizzazioni, basta dargli meno rilevanza quando si fanno le recensioni e magari vedere come vanno le schede alle risoluzioni piu' elevate

prova
19-05-2004, 11:13
Io non fatto alcuna confusione: sei forse tu che non hai letto l'articolo. :)

Mi congratulavo con ATI per la risposta e la serietà mostrata. Inoltre se è vero che
these differences can only be seen by subtracting before and after screenshots and amplifying the result. allora siamo tutti a posto.

;)

Sayan V
19-05-2004, 11:17
Ma ottimizzazioni ... a me sembra un modo per ovviare alla limitazione del chip grafico.

sto r360*2 mi convince sempre meno ...

nightmare82
19-05-2004, 11:33
parlate di ATi come se stesse difendendo un vostro famigliare...a spada tratta...mamma mia ragazzi...il mondo dell'informatica sta assomigliando sempre di più a quello della politica...nessuno sa cosa c'è veramente dietro....

nonikname
19-05-2004, 11:33
Originariamente inviato da prova
Io non fatto alcuna confusione: sei forse tu che non hai letto l'articolo. :)

Mi congratulavo con ATI per la risposta e la serietà mostrata. Inoltre se è vero che
these differences can only be seen by subtracting before and after screenshots and amplifying the result. allora siamo tutti a posto.

;)

E da ieri che leggo sul forum di Beyond 3d , dove l'analista dell'articolo di Computerbase ha postato ....

La quest è semplice , perchè ATI , che si vanta di avere la migliore qualità d'immagine , non ha inserito nel pannello di controllo dei suoi driver un'opzione per disabilitare queste ottimizzazioni ????

Serietà mostrata???

Qui non si parla dell'aspetto della qualità d'immagine , ma di come si ottiene : allo stato attuale la migliore scheda in commercio ( I.Q. parlando ) è la 9700-9800 , che al contrario delle sorelle maggiori offre la possibilità di attivare un vero filtro trilineare e non un algoritmo che riduce il carico di lavoro ....
Il fatto che questa opzione sia stata nascosta fino a oggi non ti dice niente ????

Se tu sei a posto così bene , ma non puoi postare per tutti.... quindi , "siamo tutti a posto" è un po riduttivo , non credi??

plunderstorm
19-05-2004, 11:40
tanto la gente su ut la grafica non la usa ^_^

nonikname
19-05-2004, 11:46
ATI reagisce alle accuse

News di pier - ore 8:25

In una e-mail indirizzata alla stampa, ATI reagisce alla scoperta di ComputerBase che accusava il noto produttore canadese di aver ottimizzato i suoi driver per ridurre la modalità di filtraggio trilineare per guadagnare in prestazioni.

ATI riconosce oggi di utilizzare un algoritmo di selezione del filtraggio trilineare , che non ha alcun effetto sulla qualità d'immagine. Funziona determinando la differenza di livello tra un mipmap ed il seguente per applicare il miglior livello di selezione. In pratica questo metodo è funzionante solo con mipmaps vicini utilizzand il box filtering.
Nelle situazioni atipiche in cui ogni mipmap differisce significativamente dal livello precedente non è applicata alcuna ottimizzazione. Questo spiega perché alcune prove sui mipmaps non mettono in evidenza l'ottimizzazione incriminata. ATI precisa inoltre che la certificazione WHQL dei suoi driver è in parte stata accordata basandosi su prove di qualità d'immagine.

ATI aggiunge che quest'ottimizzazione è attiva dal lancio del Radeon 9600, e che fino allora nessuno non l'aveva notata. Questo tende a provare che la qualità d'immagine no risente affatto di questo tipo d'ottimizzazione. Ricordiamo tuttavia che il cuore della polemica non era tanto la qualità grafica ma il fatto che quest'ottimizzazione non sia documentata e che sia disattivata con gli strumenti di verifica della qualità d'immagine indurrebbe al sospetto...

Ieri Gainward in una e-mail (ricevuta anche da noi) affermava: "However, the reaction pattern of the chip vendors will never change. They will most likely issue a statement calling the “cheat” “the latest patent-pending blessing offering great value for the end user”. Amazing, isn't it?"
In pratica Gainward ironizza sul fatto che una volta scoperto l'inganno, questo diventa un'ottimizzazione d'ingegneria e non un semplice imbroglio...

La guerra di marketing tra i due colossi del 3D è appena iniziata: questo è certo.

^TiGeRShArK^
19-05-2004, 11:53
Originariamente inviato da nonikname
Allora , d'ora in avanti , l'unico raffronto possibile fra le due marche deve essere fatto con Bilinear e AF , dato che solo Nvidia ha l'opzione full Trilinear+AF , mentre ati ha l'algoritmo per l'applicazione del tri-bilinear.........


Intanto Nvidia usa un brilinear SEMPRE con le ottimizzazioni, ATI invece ha creato un algoritmo adattativo ke QUANDO SERVE usa il trilineare, QUANDO NON SERVE usa il bilineare. Se questo non è un vero e proprio passo avanti (e qualcuno osa chiamarlo cheat addirittura:rolleyes: ) non so come definirlo....
ma forse tu preferisresti che magari l'antialiasing fosse un supersample perchè è con quello ke si ha la resa qualitativa "perfetta" (senza considerare le prestazioni penose) ...
tanto è esattamente lo stesso concetto.... x avere un guadagno di qualità visiva MINIMO si ha un forte deceadimento delle prestazioni.
Se il decadimento di qualità non fosse completamente invisibile, mi spieghi allora come mai NESSUNA recensione online ha riportato, in screen ingranditi almeno 4 volte, l'esistenza della seppur minima differenza nella qualità visiva tra 9800 pro e R420???
Tanto x tornare al discorso ottimizzazioni .... hai presente le differenze tra mp3 e wav??? lì le differenze si notano analizzando lo spettro in maniera immediata, senza bisogno di ricorrere a ingrandimenti, sottrazioni e amplificazioni.... eppure per l'80% delle persone la differenza di qualità percepita tra wav e mp3 non è assolutamente così evidente....
Se vuoi continuare c'è pure l'esempio del jpg vs. tiff ... Fosse x te tutti dovrebbero usare i tiff e scaricare decine di mega x una pagina web perchè non sarebbe accettabile la perdita di qualita data dal jpeg???
Io onestamente se vedo ke con questo algoritmo adattativo della ATI le prestazioni migliorano notevolmente SENZA avere alcun impatto sulla qualità dell'immagine (l'esatto opposto di ciò ke ha fatto nvidia con farcry....) sono a posto e non mi interessa niente di quello ke ne dice la gente paragonandolo ADDIRITTURA ad un cheat (e magari sono le stesse persone ke difendevano nvidia quando IMBROGLIAVA spudoratamente con i clipping planes del 3dmark 2003....:rolleyes: )

nonikname
19-05-2004, 12:10
Ricordo a tutti che il cuore della polemica non è tanto la qualità grafica ma il fatto che quest'ottimizzazione non sia documentata e che non sia attiva con gli strumenti di verifica della qualità d'immagine e questo induce a sospettare...

Il fatto che comunque sia stata una feature nascosta fino ad oggi non ti fa pensare???

Io sarei stato daccordo con ATI se , alla presentazione della X800 , non avesse mostrato quelle slide , infatti (fino ad oggi) si vantava di non dover applicare "inaccettabili tucchi" che riducono l'ammontare del lavoro svolto:
- Riduzione del filtro Trilinear al bilinear
- Riduzione del L.O.D. (mipmap più piccoli)
Ripeto :tutte fuffole , dato che l'algoritmo in fase di brevetto esegue questi due modalità a seconda del output generato, senza comunque pagare troppo in ambito Q.I. , ma questo è un'altro discorso......

sanitarium
19-05-2004, 12:36
Originariamente inviato da Sayan V
Ma ottimizzazioni ... a me sembra un modo per ovviare alla limitazione del chip grafico.

sto r360*2 mi convince sempre meno ...

Eh già, infatti il filtro anisotropico "brilineare" di NVidia non ti dice nulla, vero?

Black87
19-05-2004, 12:46
no, bRilineare non dice nulla sinceramente. :D . Lo avrei accettato come passo avanti se avessero parlato di tutto ciò alla presentazione della scheda. In termini di marketing cosa ci guadagna una azienda a presentare DOPO l'uscita le sue innovazioni? Il fatto che queste informazioni siano emerse solo ora fa pensare anche me, anche se non metto in dubbio le qualità dell'r420 che è (e ci mancherebbe che non lo fosse) un'ottima scheda.

Black87
19-05-2004, 12:49
ehm sorry un ottimo chip non scheda :P

sanitarium
19-05-2004, 12:56
Originariamente inviato da Black87
no, bRilineare non dice nulla sinceramente. :D . Lo avrei accettato come passo avanti se avessero parlato di tutto ciò alla presentazione della scheda. In termini di marketing cosa ci guadagna una azienda a presentare DOPO l'uscita le sue innovazioni? Il fatto che queste informazioni siano emerse solo ora fa pensare anche me, anche se non metto in dubbio le qualità dell'r420 che è (e ci mancherebbe che non lo fosse) un'ottima scheda.

E invece bRilineare dovrebbe dirti qualcosa eccome, se hai letto le recensioni di NV40... E' un modo scherzoso di chiamare la combinazione di filtro bilineare + trilineare.

Sono d'accordo invece sul fatto che ATi avrebbe dovuto mettere in chiaro da subito come funziona l'algoritmo del filtraggio anisotropico di R420, si sarebbero evitate parecchie grane...
E inoltre preferirei che ci fosse anche il modo di abilitare tramite driver un'anisotropia puramente trilineare.

Fabryce
19-05-2004, 13:06
A me invece sembra che ATI abbia fatto la scelta giusta..

Mi spiegate a cosa serve applicare il filtro quando c'è una significativa differenza tra due mipmaps?

T. Alexius
19-05-2004, 13:32
buona la scelta dell'algoritmo

pessima la scelta di nasconderlo


svelato l'arcano,entro una o due release dei driver includeranno la possibilità di attivarlo dal pannello del chip

Wonder
19-05-2004, 13:58
Ho letto tutti i tuoi commenti e le tue risposte... PURTROPPO!!!

Mi stupisci...verresti a fare il venditore per me? Ho bisogno si uno strillone che si accanisca pur di vendere e ottenere il suo scopo e che rigiri la frittata e che detti lui le regole

paul71
19-05-2004, 14:17
Riporto dalla traduzione fatta da moGio:

Noi incoraggiamo gli utenti a sperimentare spostando la barra di configurazione delle texture da "Quality" fino a "Performance" - vedrete giganteschi guadagni di prestazioni senza effetti sulla qualita' dell'immagine se non agli estremi

Questa frase indica chiaramente che l'opzione per disabilitare questo algoritmo, esiste. Spostando la barra di configurazione della qualità delle texture su quality, è evidente che la massima impostazione qualitativa viene attivata senza compromessi altrimenti non avrebbe senso questa frase. Addirittura bisognerebbe vedere se l'algoritmo è attivo solo su "performance" oppure anche sugli stati intermedi della barra.

Ciao

P V
19-05-2004, 14:37
Il fatto che non sia stata data pubblicita' all'algoritmo implementato mi sembra ovvia nel caso di un algoritmo patent-pending. Se sto' brevettando un algoritmo ho tutto l'interesse che l'esistenza di tale algoritmo resti segreta il piu' a lungo possibile in modo che la concorrenza trovi il piu' tardi possibile la maniera di aggirare il brevetto e copiarmelo. La slide di ATI e' effettivamente fuorviante, ma purtroppo in una guerra tecnico commerciale anche questo fa parte del gioco...

IcemanX
19-05-2004, 14:45
Boh, mi paiono le stesse inutilità dette quando si è saputo 3 anni fa che ATI aveva l'AF dipendente dai gradi di visuale...
E mi paiono ottimizzazioni ben diverse dal costringere l'utente ad avere un numero max di luci visibile o un path preciso di pixel shader.
La scelta è la cosa che differenzia le 2 soluzioni, oltre al fatto che come al solito si parla di schede che non hanno ancora toccato il mercato se non nei listini prezzi...

Black87
19-05-2004, 15:08
mah mi ritengo neutrale ma sono convinto che nel caso fosse successo ad nvidia si sarebbe chiamato cheating. Con ATi sono grosse ottimizzazioni evolutive (che ti rivelano che se setti su performance invece che su quality hai una resa migliore... mah). Che costa essere neutrali? (detto da me suona un po strano dato che un po di tempo fa difendevo nvidia con spada e scudo con tanto di flame e roba varia). Spendere tante energie per giustificare una scorrettezza da parte di una casa che aveva dichiarato che certe cose non le avrebbe fatte mai non capisco che senso abbia... ha fatto male ATi ora come un tempo aveva fatto male nvidia con i driver truccati e le "ottimizzazioni" ad hoc per far andare più veloci i 3dmark. Ma ke pensate ke davvero ATi ed nvidia stiano a pensare ai guadagni del consumatore invece ke scannarsi a vicenda con tanto di trucchetti per ottenere un frame per secondo di più?

^TiGeRShArK^
19-05-2004, 15:12
no ma ke dite....
come abbiamo fatto ad essere così ciehi!!!
nvidia è da elogiare perchè ha SEMPRE documentato le sue features innovative come i CLIPPING PLANES del 3dmark2003 ke ne aumentano le performance in maniera spaventosa....
o addirittura l'uso massiccio di FP16 (o più probabilmente INT) in farcry x aumentarne le prestazioni .... poi se la qualità fa skifo non interessa a nessuno .... tanto alla fine siamo noi ke paghiamo una skeda 600€ e non ci interessa se la qualità fa skifo o meno, l'importante è ke come velocita in farcry, con questo trucchetto sia "quasi" comparabile alle skede ati......

E mi si dice ke il problema è di ati ke non documenta le sue scelte progettuali....
ma perchè finora aveva mai documentato il TAA prima ke qulcuno lo venisse a scoprire x caso????

Black87
19-05-2004, 15:15
per PV

no, non mi sembra tanto regolare: venderti una scheda che opera una scelta di filtri in base a come conviene per ottenere prestazioni migliori il tutto all'insaputa di chi ci spende dei soldi per quella scheda non è OVVIO come dici tu. Se lo avessero fatto su schede che testano loro nei loro laboratori tutto ok ma mettere certe cose nelle le schede che compriamo noi, questo no! Può essere una buona manovra di marketing ma è sempre ai danni dell'acquirente (anche se questo può comportare qualcosa di positivo l'acquirente deve sapere a cosa va incontro quando utilizza un certo prodotto). Perchè ATi prima di rilasciare ufficialmente un certo algoritmo non se lo testa da sola invece che farlo testare a noi utenti?

Black87
19-05-2004, 15:17
^TiGeRShArK^ perchè questo sarcasmo inutile? nessuno nega che anche Nvidia abbia fatto le sue schifezze in molti casi peggiori di ciò di cui si parla in questo thread... ma almeno condanniamo tutto non solo ciò che è fatto da Nvidia.

sanitarium
19-05-2004, 15:18
Originariamente inviato da Black87
per PV

no, non mi sembra tanto regolare: venderti una scheda che opera una scelta di filtri in base a come conviene per ottenere prestazioni migliori il tutto all'insaputa di chi ci spende dei soldi per quella scheda non è OVVIO come dici tu. Se lo avessero fatto su schede che testano loro nei loro laboratori tutto ok ma mettere certe cose nelle le schede che compriamo noi, questo no! Può essere una buona manovra di marketing ma è sempre ai danni dell'acquirente (anche se questo può comportare qualcosa di positivo l'acquirente deve sapere a cosa va incontro quando utilizza un certo prodotto). Perchè ATi prima di rilasciare ufficialmente un certo algoritmo non se lo testa da sola invece che farlo testare a noi utenti?

Che diamine c'entra il fatto di non spiegare come agisce un algoritmo con il fatto di testarlo in laboratorio???

Black87
19-05-2004, 15:19
secondo te è l'acquirente a dover brevettare?

Black87
19-05-2004, 15:21
commentavo comunque ciò che era stato detto da PV non sono supposizioni mie.

sanitarium
19-05-2004, 15:25
Originariamente inviato da Black87
secondo te è l'acquirente a dover brevettare?

Direi che c'è una grossa differenza fra "brevettare" e "testare", e in questo caso gli acquirenti non devono fare ne' l'una ne' l'altra cosa (anche perché i brevetti non li registrano certo i clienti! :D ).

Black87
19-05-2004, 15:33
i possessori della 9600 allora cosa han fatto sino ad ora? mica lo sapevano che c'era questa selezione del filtro (con tutti i dovuti miglioramenti prestazionali etc.) e la scheda la hanno usata. Perchè io acquirente devo testare una cosa di cui non sono a conoscenza? perchè non c'è stata chiarezza da parte di ati che si diceva diametralmente opposta a questa politica vedendo le castronerie fatte da nvidia con le "ottimizzazioni" per i 3dmark?

aquila18
19-05-2004, 15:34
Molto probabilmente nn ci ho mai fatto molto caso anke se sn uno ke ci tiene molto alla qualità dell'immagine ma, se devo esser sincero, nn vedo molta differenza tra filtro bilineare e trilineare.Ke differenze ci sono tra di loro?

nonikname
19-05-2004, 15:39
Originariamente inviato da Wonder
Ho letto tutti i tuoi commenti e le tue risposte... PURTROPPO!!!

Mi stupisci...verresti a fare il venditore per me? Ho bisogno si uno strillone che si accanisca pur di vendere e ottenere il suo scopo e che rigiri la frittata e che detti lui le regole

Se questa è l'unica risposta che sai dare a un problema che fino a Ieri era solo di Nvidia ........ lasci molto a desiderare...Per la questione lavoro , sono già un "venditore" a tempo pieno , ma se mi offri un impiego part-time ben retribuito potrei vagliarlo :D

Ho criticato Nvidia per i trucchi su 3dmark , non vedo perchè dovrei usare un diverso metro con ATI : Si , la 9800XT è nel mio CASE , ma questo non fa di me un fanATIco a vita....

Originariamente inviato da Paul71 Questa frase indica chiaramente che l'opzione per disabilitare questo algoritmo, esiste. Spostando la barra di configurazione della qualità delle texture su quality, è evidente che la massima impostazione qualitativa viene attivata senza compromessi altrimenti non avrebbe senso questa frase. Addirittura bisognerebbe vedere se l'algoritmo è attivo solo su "performance" oppure anche sugli stati intermedi della barra.

Su Beyond 3d hanno fatto diverse prove , ma l'unico modo per disabilitare l'algoritmo è via tool esterno : sul pannello di controllo dei driver , al settaggio alta qualità , non corrisponde all'attivazione del trilinear filter .... questo avviene solo con le 9600 e X800 , mentre per tutte le altre schede dalla 8500 alla 9800xt con i driver settati al massimo , il filtro trilineare viene applicato......
Il discorso è valido sia per ATI , che per Nvidia : in una scheda da 500€ voglio avere la possibilità di attivare o disattivare il filtro...

Il bello è che se qualcuno prova a fare qualche confronto con i mipmap colorati , per vedere se vi sono ottimizzazioni fra l'AF+Trilinear del reference rasterizer della microsoft e l'output di ATI , troverà ben poche differenze dato che l'algoritmo in questo caso applica il trilineare , mentre nei giochi , dove le differenze sono più difficili da trovare , si applica il BRI-lineare , con un buon 20% di prestazioni in più del 3lineare + AF
L'unico metro di paragone fra due GPU sono i giochi , per eseguire dei raffronti fra due architetture , vorrei avere la certezza che quando imposto le 2 schede su trilinear è Anisotropico i settaggi da me impostati siano realmente quelli e non un'algoritmo patent-pending.....

Solo ora che l'algoritmo è stato scoperto ammettono la sua esistenza , ma nella presentazione della scheda , dove si bullavano di avere l'unica GPU che applica sempre e comunque il trilineare , non hanno fatto i conti con il famoso proverbio : "le bugie hanno le gambe corte"...
http://www.computerbase.de/picture/news/7748/4.jpg
Se non è una presa per il .... questa...........ditemi voi di cosa si tratta!!!

^TiGeRShArK^
19-05-2004, 15:42
e cmq guarda caso fino ad oggi nessuno si era mai lamentato di questo algoritmo (dato ke era già presente nelle r360)
il problema è ke alla gente piace fare polemica poikè cercano ogni piccolezza per infierire contro ati, forse x "vendicarsi" di come GIUSTAMENTE si è andati contro nvidia x le innumerevoli cavolate ke ha fatto.
Forse x voi sarà una cosa normale, ma questo tifo da stadio mi pare eccessivamente immotivato... ma x caso vi paga nvidia ke siete sempre pronti a difenderla, e inoltre appena si mormora una mezza parola contro ATI vi scagliata ad attaccarla come fosse la ditta dell'anticristo???
ognuna delle due ditte ha fatto una precisa scelta commerciale.
abbiamo visto ke quella di ati è stata la scelta vincente e ke nvidia, x mettere delle toppe al suo progetto scadente, si è dovuta ridurre ad utilizzare cheat scandalosi.
Se le parti fossero state invertite state pur certi ke io sarei stato il primo a criticare ATI, ma intanto, ad oggi non c'è nulla da criticare.
Se proprio uno si vuole mettere a cercare il pelo nell'uovo (comre si sta facendo) si potrebbe dire ke ati non ha pubblicizzato il suo algoritmo e anzi diceva ke le sue skede adottano il trilinear filtering anzikè il brilinear....
cmq questo è solo il marketing .... se voi vi fidate di ogni cosa ke viene detta dalla pubblicità non so come siete messi....
Allora nvidia ha fatto molto di peggio col marketing quando diceva di avere la scheda directx 9 DEFINITIVA con nv30 .... quando poi in realtà si è visto quanto era fallimentare quel progetto....

Black87
19-05-2004, 15:42
quello che voglio dire è che posso anche essere d'accordo con una ottimizzazione se porta soltanto benefici senza perdere in qualità dell'immagine (anzi, benvenga) ma queste scelte devono essere a mio parere dichiarate a chi compra un certo prodotto (e questo da parte di ogni casa, dalla intel alla pc-chips) dato che a questo punto le giustificazioni appaiono inutili: non è giusto che io testi qualcosa che la ati stia progettando come non è altrettanto giusto che, ipotesi ben più grave (ed è tutto da provare comunque) queste "ottimizzazioni" siano solo finalizzate ad ottenere grossi risultati nei benchmark (come è accaduto ad nvidia per le 5x00, episodio assolutamente ingiustificabile sia chiaro).

sanitarium
19-05-2004, 15:45
Originariamente inviato da Black87
i possessori della 9600 allora cosa han fatto sino ad ora? mica lo sapevano che c'era questa selezione del filtro (con tutti i dovuti miglioramenti prestazionali etc.) e la scheda la hanno usata. Perchè io acquirente devo testare una cosa di cui non sono a conoscenza? perchè non c'è stata chiarezza da parte di ati che si diceva diametralmente opposta a questa politica vedendo le castronerie fatte da nvidia con le "ottimizzazioni" per i 3dmark?

Semplicemente perché gli utenti di 9600 non hanno riscontrato problemi qualitativi, e neanche in sede di recensione sono stati trovati difetti grafici derivanti da questo algoritmo. Quindi, se l'utente non ha un calo qualitativo percepibile, dove sta il problema?
Queste si chiamano ottimizzazioni. Quando, invece, pur di avere 10fps in più si assiste ad un calo evidente di qualità, allora si può parlare di cheat.

ATi magari al momento del lancio delle X800 poteva risparmiarsi le menate sulle ottimizzazioni della concorrenza ecc..., ma non ha affatto danneggiato chi possiede una 9600, ne l'ha fatto diventare una cavia.

nonikname
19-05-2004, 15:52
Se volete seguire la Chat fra appassionati e lo staff ATI , sulla questione :" ATI's texture filtering algorithms" , potete farlo qui (http://www.ati.com/online/chat/)
Ora e Giorno :May 19, 2004 at 3pm EST, 9pm CET

Da non perdere......

Edit:

Per Squalo-tigre :

Nessuno sta parlando di Nvidia , quest'algoritmo è sicuramente un lavoro ben fatto , dato che oltre a perdere meno FPS mantiene la stessa qualità grafica , ma non si sta parlando della bontà dell'algoritmo , ma del fatto che fino ad oggi ATI ha dato da bere a tutti , facendo credere che la sua era l'unica GPU a utilizzare assieme all'AF il trilinear by default , quando si è scoperto che da pannello di controllo non si può nemmeno attivare ........

ATI's texture filtering algorithms : Ottima tecnologia , ma bullandosi alla presentazione di cose non vere , ha rovinato tutto........:rolleyes:

aquila18
19-05-2004, 15:59
Ma dai ragazzi, è vero ke ATI ci ha giocato un po' su sta cosa nel publicizzare la X800 con trilineare sempre attivo, ma è anke vero ke, alla fine dei conti, ditemi voi come notate ke l'algoritmo sta cambiando la modalità del filtro in una scena mentre state giocando!! E' vero la repsa in giro c'e' cmq stata ma io darei ad ATI un premio per l'ingegno perche' se nn fosse stato per qlc ke nn aveva niente da fare mai nessuno si sarebbe accorto della qualità dell'immagine ke cambiava, anke perche', ripeto, i cambiamenti sn cosi' minimi ke anke a fermo immagine cn foto ingrandita si fa fatica!!!Ditemi la verità!Secondo me è un ottimo modo per sfruttare una tecnologia anke perche', vi assicuro, ho provato tanti giochi come FarCry e la qualità è eccezionale!!

Black87
19-05-2004, 16:00
vabè immagino che il sito sarà sovraccarico eheheh. sanitarium che non ci siano dei cali qualitativi è tutto da vedere (altrimenti neanche chi ha scritto la news direbbe che ci sono dubbi in merito). Anche in alcuni cheat nvidia, tutti a parte quelli del 3dmark, intendo quelli dove venivano individuati degli shaders etc, non si avevano cali qualitativi evidenti eppure nvidia la abbiamo (giustamente) condannata comunque. Ora è il turno di ATi...

P V
19-05-2004, 16:00
Originariamente inviato da Black87
per PV

no, non mi sembra tanto regolare: venderti una scheda che opera una scelta di filtri in base a come conviene per ottenere prestazioni migliori il tutto all'insaputa di chi ci spende dei soldi per quella scheda non è OVVIO come dici tu. Se lo avessero fatto su schede che testano loro nei loro laboratori tutto ok ma mettere certe cose nelle le schede che compriamo noi, questo no! Può essere una buona manovra di marketing ma è sempre ai danni dell'acquirente (anche se questo può comportare qualcosa di positivo l'acquirente deve sapere a cosa va incontro quando utilizza un certo prodotto). Perchè ATi prima di rilasciare ufficialmente un certo algoritmo non se lo testa da sola invece che farlo testare a noi utenti?

Scusa ma mi sembra che tu abbia completamente travisato quanto ho detto (forse non mi sono spiegato io). Quello che volevo dire e' che mi sembra ovvio che una azienda non faccia pubblicita' ad un algoritmo che vuole brevettare perche' nel SW si sa che scoperto l'algoritmo aggirato il brevetto. Quello che dici tu sarebbe sbagliato (anche se sono convinto che tutti noi siamo i beta tester di un sacco di cose a tutti i livelli) ma non c'entra niente con quanto da me affermato...

Black87
19-05-2004, 16:05
aquila18 avrei accettato il tuo ragionamento nel caso lo avessi fatto anche con le ottimizzazioni degli shaders di nvidia nei giochi...se premi ATi per l'ingegno allora a nvidia dovevi dare il mongolino d'oro... non mi pare sia un ragionamento fattibile. Mi domando se ci piaccia essere presi per il c*lo. Se qualcuno se ne è accorto vuol dire che i cali in campo di qualità ci sono altrimenti queste cose non sarebbero mai venute a galla. Ancora non capisco che senso abbia difendere ATi o NVidia. A loro piace prenderci per fondelli ma grazie a noi acquirenti le cose vengono a galla ed è tutto a nostro favore. Col tempo impareranno a non barare piu nè l'una nè l'altra.

sanitarium
19-05-2004, 16:07
Originariamente inviato da Black87
vabè immagino che il sito sarà sovraccarico eheheh. sanitarium che non ci siano dei cali qualitativi è tutto da vedere (altrimenti neanche chi ha scritto la news direbbe che ci sono dubbi in merito). Anche in alcuni cheat nvidia, tutti a parte quelli del 3dmark, intendo quelli dove venivano individuati degli shaders etc, non si avevano cali qualitativi evidenti eppure nvidia la abbiamo (giustamente) condannata comunque. Ora è il turno di ATi...

Allora te la metto così: finché non avremo le prove che c'è un degrado qualitativo percepibile e inaccettabile, io non me la sento di condannare ATi o chicchessia.

NVidia è stata "condannata" esclusivamente per le "ottimizzazioni" mirate ai bench che prevedevano un calo percepibile di qualità pur di innalzare le prestazioni, non per altro.

Black87
19-05-2004, 16:07
PV sono d'accordo ma non venirmi a dire che ti piace avere cose non brevettate in una scheda video che paghi 600 euro.

Black87
19-05-2004, 16:09
sanitarium nvidia è stata condannata anche perchè ottimizzava la scheda per i giochi piu famosi anche se non era percepibile il cambiamento. Sta di fatto che se devono ancora brevettare una cosa non la voglio in una scheda che pago 600 euro che sia ATi o NVidia. Ragion per cui la serie 5x00 ha fatto schifo nonostante gli stupidi (come me) che la difendevano tenendo gli occhi chiusi.

P V
19-05-2004, 16:13
Originariamente inviato da Black87
PV sono d'accordo ma non venirmi a dire che ti piace avere cose non brevettate in una scheda video che paghi 600 euro.

Guarda che di norma le cose NON sono brevettate. Mi sembra che tu stia veramente facendo confusione fra il termine brevettare e il termine debuggare. Normalmente gli algoritmi devono essere debuggati (cioe' testati) in modo da funzionare correttamente ma non devono assolutamente essere brevettati. Il brevetto (che e' una operazione legale e non tecnica) impedisce ai tuoi concorrenti di utilizzare il tuo stesso algoritmo in loro realizzazioni e viene chiesto dai produttori di sw per impedire agli altri di copiare. Una volta scoperto l'algoritmo e' molto facile cambiando un po' qua e un po' la' aggirare questa protezione e quindi mi sembra ovvio che un produttore non faccia nessuna pubblicita' a qualche cosa che vuole brevettare.

aquila18
19-05-2004, 16:17
Guarda io ti garantisco una cosa,nn sono da nessuna parte perche' io prendo il meglio, prima di tutto. Ho avuto GeForce2 e 3, mitiche schede di cui ne vado ancora orgoglioso, ora sn passato da ATI e ho una 9800XT. Nn si puo' negare però ke Nvidia ha completamente perso terreno perchè tutt'ora nn è in grado di fornire schede degne di essere acquistate. Come fi a mettere un reattore nucleare nel case ke ti occupa due PCI...Sn tante stupidate ke se le stai a vedere nn compri + nulla.Si sa ke il mercato è fatto così. Un'altra cosa: Nn è vero ke qlc se ne debba essere accorto per forza perkè lo ha notato ma molto probabilmente sn rumors sfuggiti da partners di ATI stessa o, se sono ottimizzazioni a livello software, qlc può essersi divertito a giocarci dentro. Nessuno può sapere come si è venuto a sapere. Una cosa è certa, io nn difendo nessuno perchè a me interessa avere la scheda migliore del momento!!!Se Nvidia riuscisse a fare una scheda ke consumasse poco e andasse fortissimo ripasserei tranquillamente da lei!Nn me ne viene in tasca niente a stare da Nvidia o da ATI.

Black87
19-05-2004, 16:18
già scusa effettivamente ho fatto un pò di confusione, mi sono espresso male confondendo il termine testare con brevettare. In questo caso la manovra di ATi mi sembra altrettanto sbagliata e la cosa accresce i miei dubbi... perchè far uscire sul mercato un algoritmo non brevettato? cosa ci guadagna la casa? secondo voi una volta ottenuto il brevetto avrebbe ufficializzato la presenza di una certa tecnologia nelle schede 9600, x800 etc? e con quale scusante? Ci siamo dimenticati di dirvi che dentro la scheda c'è questo e quest'altro? oppure: sopresa! guardate che tecnologia vi fa ottenere questo framerate? a questo punto la puzza di bufala cresce.

sanitarium
19-05-2004, 16:18
Originariamente inviato da Black87
sanitarium nvidia è stata condannata anche perchè ottimizzava la scheda per i giochi piu famosi anche se non era percepibile il cambiamento. Sta di fatto che se devono ancora brevettare una cosa non la voglio in una scheda che pago 600 euro che sia ATi o NVidia. Ragion per cui la serie 5x00 ha fatto schifo nonostante gli stupidi (come me) che la difendevano tenendo gli occhi chiusi.

Personalmente le uniche cose che non ho digerito di NVidia sono 2:
1- Path specifici per NV30, studiati per innalzare le prestazioni a scapito della qualità (Doom III ne era un esempio - "era" perché ormai il path NV30 è stato del tutto eliminato).
2- Cheat mirati all'innalzamento della velocità a scapito della qualità, pur di stare dietro alla concorrenza.

Per il resto, se le ottimizzazioni preservano la qualità, ben vengano.

Quando vedrò ATi fare le stesse cose, mi comporterò di conseguenza.

IcemanX
19-05-2004, 16:23
Nulla da dire contro il riordino delle istruzioni di shading da parte di nVidia, peccato che xò tale riordino non fosse tale visti i risultati diversi a seconda dei casi... Se le NV30/35 hanno problemi a fare 4 fetch & 4 exe intervallati e il riordino in 4 fetch di fila ed exe a seguire risolve il problema tutto ok.
Se il risultato a livello visivo è diverso è palese che è solo una balla o che cmq ci si è marciato sopra.
Mi sta anche bene che si dica "liberi tutti, ognuno si gestisca il PS come vuole" e ogni casa si rigira le istruzioni x se, ma se poi finisce che a occhio nudo l'erba è spessa come un tronco invece che filiforme...
Riordinare non è uguale a sostituire, da qui le critiche.
La maggior parte dei siti ha messo a disposizione foto a grandezza reale fatte con entrambe le schede, non mi pare si sia lamentato nessuno e anzi, nella maggior parte dei casi l'IQ di ATI è stata giudicata migliore, anche senza la chicca dell'AA con Gamma Correction, giudicata oggettivamente migliore ovunque abbia letto.
Ovviamente non visito NVItalia o simili...
Cmq con i drv son sempre stati bravi in NV, basta ottimizzare il codice senza compromettere l'immagine, di lavoro ce n'è tanto ma non credo sia infattibile.
Il fatto che in un paio di casi l'X800 fosse lievemente sotto al 9800XT mi da anche un'idea del margine di guadagno possibile x quest'ultima, considerando la presenza del doppio dell'HW.

sanitarium
19-05-2004, 16:26
Originariamente inviato da Black87
già scusa effettivamente ho fatto un pò di confusione, mi sono espresso male confondendo il termine testare con brevettare. In questo caso la manovra di ATi mi sembra altrettanto sbagliata e la cosa accresce i miei dubbi... perchè far uscire sul mercato un algoritmo non brevettato? cosa ci guadagna la casa? secondo voi una volta ottenuto il brevetto avrebbe ufficializzato la presenza di una certa tecnologia nelle schede 9600, x800 etc? e con quale scusante? Ci siamo dimenticati di dirvi che dentro la scheda c'è questo e quest'altro? oppure: sopresa! guardate che tecnologia vi fa ottenere questo framerate? a questo punto la puzza di bufala cresce.

L'algoritmo non esce sul mercato, è solo una sequenza finita di istruzioni ordinate, delle quali l'utente comune non sa assolutamente nulla.
Se viene brevettato è solo per preservarlo dalle mani della concorrenza, e nient'altro. Se non viene brevettato significa che non c'è l'interesse di farlo.
All'untente finale non cambia nulla.

Black87
19-05-2004, 16:29
beh a questo punto scoperto questo algoritmo non brevettato si può sperare anche per le schede nvidia anche se la manovra nvidia non sarebbe tanto corretta. Se questo algoritmo è veramente quello che si dice che sia e non una bufala nvidia non se ne starà con le mani in mano almeno penso. Noi compratori ci guadagnamo solamente. Se regalano poi tutte le performance di cui si parla allora siamo a cavallo. A questo punto c'è da sperare che non sia un cheat perchè sarebbe comunque scorretto da parte della casa ATi. Ripeto: il fatto che ATi non ne abbia parlato e non lo abbia brevettato prima non fa sperare.

sanitarium
19-05-2004, 16:34
Originariamente inviato da Black87
beh a questo punto scoperto questo algoritmo non brevettato si può sperare anche per le schede nvidia anche se la manovra nvidia non sarebbe tanto corretta. Se questo algoritmo è veramente quello che si dice che sia e non una bufala nvidia non se ne starà con le mani in mano almeno penso. Noi compratori ci guadagnamo solamente. Se regalano poi tutte le performance di cui si parla allora siamo a cavallo. A questo punto c'è da sperare che non sia un cheat perchè sarebbe comunque scorretto da parte della casa ATi. Ripeto: il fatto che ATi non ne abbia parlato e non lo abbia brevettato prima non fa sperare.

Se ATi fosse in malafede non credo che avrebbe indetto in quattro e quattr'otto una sessione in chat per far incontrare il suo staff tecnico con gli appassionati...
Si sta dimostrando estremamente disponibile, non sembra interessata a coprire tutto e a far dimenticare la cosa il più presto possibile...

aquila18
19-05-2004, 16:36
Commento # 71 di : Black87 pubblicato il 19 May 2004, 17:29
beh a questo punto scoperto questo algoritmo non brevettato si può sperare anche per le schede nvidia anche se la manovra nvidia non sarebbe tanto corretta. Se questo algoritmo è veramente quello che si dice che sia e non una bufala nvidia non se ne starà con le mani in mano almeno penso. Noi compratori ci guadagnamo solamente. Se regalano poi tutte le performance di cui si parla allora siamo a cavallo. A questo punto c'è da sperare che non sia un cheat perchè sarebbe comunque scorretto da parte della casa ATi. Ripeto: il fatto che ATi non ne abbia parlato e non lo abbia brevettato prima non fa sperare.




E' una questione di orgoglio!!Nvidia nn potrà mai fare una cosa del genere perchè significherebbe ammettere la vittoria di un suo avversario!Sognati ke Nvdia userà questo algoritmo!Per come la vedo io nn succederà niente pur sapendo di questa cosa perchè resta il fatto ke, cmq, ATI rimane sempre prima e poi tu vorresti credere ke Nvidia nn abbia usato qualche sua ottimizzazione?????Illuso.

aquila18
19-05-2004, 16:39
E' da qualche tuo post ke sn d'accordo cn te sanitarium!!Siamo sulla stessa onda!!Nn e' così ecclatante questa notizia e nn condivido tutto questo allarmismo!!!

sanitarium
19-05-2004, 16:45
Originariamente inviato da aquila18
E' da qualche tuo post ke sn d'accordo cn te sanitarium!!Siamo sulla stessa onda!!Nn e' così ecclatante questa notizia e nn condivido tutto questo allarmismo!!!

Purtroppo l'allarmismo è comprensibile, dopo i fattacci avvenuti con la serie 5X00 di NVidia è normale che si guardi con estrema diffidenza anche la più innocente delle ottimizzazioni.
Il problema è che bisognerebbe avere la pazienza di aspettare conferme o smentite certe in proposito, prima di condannare chicchessia. ;)

nonikname
19-05-2004, 16:47
Differenza filtri (http://www.beyond3d.com/reviews/ati/r420_x800/iq_compare/compresonator.zip) fra la 5950 - 9800 -X800...(2mb)

A sinistra sempre Bilineare , destra trilineare e in mezzo il brightness aumentato del 400% ( in nero è dove il filtro non viene applicato)

Noterete un'insolita affinità fra la 5900 e l'X800 , mentre la 9800 rimane la regina della qualità grafica ..........

Se non sono prove queste torno a configurare il joystik della sedia a rotelle di mia nonna...:(

Black87
19-05-2004, 16:52
nonikname ti quoto. A quanto pare ATi si è avviata sulla strada abbandonata di nvidia....

sanitarium
19-05-2004, 17:03
Originariamente inviato da nonikname
Differenza filtri (http://www.beyond3d.com/reviews/ati/r420_x800/iq_compare/compresonator.zip) fra la 5950 - 9800 -X800...(2mb)

A sinistra sempre Bilineare , destra trilineare e in mezzo il brightness aumentato del 400% ( in nero è dove il filtro non viene applicato)

Noterete un'insolita affinità fra la 5900 e l'X800 , mentre la 9800 rimane la regina della qualità grafica ..........

Se non sono prove queste torno a configurare il joystik della sedia a rotelle di mia nonna...:(

Ora sono a lavoro e non posso guardare le foto, altrimenti il mio capo mi uccide. :D
Appena arrivo a casa faccio il confronto.

Wonder
19-05-2004, 17:18
Se questa è l'unica risposta che sai dare a un problema che fino a Ieri era solo di Nvidia ........ Ehh lo so ma ultimamente non prevedo un upgrade e sinceramente in futuro prenderò quello che le mie scarse finanze mi permetteranno fra le scelte possibili di punta, sia ATi che nVidia. Che vinca la migliore, come qualità

nonikname
19-05-2004, 17:26
Secondo qualcuno vendo aria fritta e rigiro la frittata , ma almeno ho sempre postato le prove nei miei discorsi .......
Potrà anche darsi che sia in errore , ma la guerra delle prestazioni stà prendendo una brutta piega... (Grazie Black87 )

Poi non capisco la necessità di ATI di mentire sul trilinear on di default : l'R420 dovrebbe avere la potenza necessaria per applicare il trilineare sempre , perchè non hanno reso possibile da subito l'attivazione ???
Forse perchè la superiorità con i filtri non sarebbe stata così schiacciante?? (senza contare che hanno accusato Nvidia di barare sul "Brilinear isn't Trilinear", mentre ora , discorsi del genere , sarebbero da ipocriti)

In ogni caso aspetto fiducioso una bella review della 6800 vs X800 con queste modalità

ATI bilinear vs NV bilinear
ATI brilinear vs NV brilinear
ATI Trilinear vs NV trilinear

Il tutto , naturalmente abbinato al filtro anisotropico .. ;)

IcemanX
19-05-2004, 17:43
Uhm... viste, e più di una cosa non funziona.
Premetto che se devo seriamente notare differenze di IQ tra 2 immagini non scarico foto da un sito che si sforza di farlo, ma scarico gli screenshoot di frame prestabiliti da recensioni già fatte, e le sottraggo al max come livelli in photoshop, amplifico brightness contrasto, quello che volete e mi guardo il risultato...
Cmq ho visto queste e un po' di cose saltano all'occhio.
Se proprio vogliamo trovare differenze visibili tra il trilinear del 9800 e del 800 i punti sono 3. Uno spigolo arancione, uno grigio sulle mura e l'ombra della faccia del santone.
Ok le differenze ci sono.
Matematicamente c'è qualcosa che mi sfugge.
Tralasciando il fatto che le foto non sono tutte fatte da angoli identici, ma si spera che almeno a 2 a 2 lo siano, le immagini sono tutte composte da Bilinear + Trilinear + Differenza.
Pare anche che l'angolo del 9800 sia lo stesso dell'X800, forse differisce di un pixel.
Xchè allora quella dell'X800 è la più grossa fisicamente, quando la parte "differenza" dovrebbe contenere meno informazioni delle altre? Sto proprio parlando di bit fisici e della compressione usata, da informatico; mi pare proprio che risultati a parte, che possono anche essere verissimi, le immagini siano state fatte un po' col c&$o ;)
Non si è mai visto che un'immagine con meno informazioni di un'altra risulti più grande fisicamente, a parità di formato.

A parte questo ribadisco che non mi pare ci siano stravolgimenti in nessuno dei 3 casi, anche se ammetto di avere dubbi sull'albero del 5950.

Black87
19-05-2004, 17:58
e quando mai :/ . Quoto nonickname riguardo alla review... scoperto l'inghippo meglio farla ad armi pari. Aspetto comunque smentite ufficiali e roba varia per vedere come va a finire la questione e valutare meglio

sanitarium
19-05-2004, 18:56
Originariamente inviato da nonikname
Differenza filtri (http://www.beyond3d.com/reviews/ati/r420_x800/iq_compare/compresonator.zip) fra la 5950 - 9800 -X800...(2mb)

A sinistra sempre Bilineare , destra trilineare e in mezzo il brightness aumentato del 400% ( in nero è dove il filtro non viene applicato)

Noterete un'insolita affinità fra la 5900 e l'X800 , mentre la 9800 rimane la regina della qualità grafica ..........

Se non sono prove queste torno a configurare il joystik della sedia a rotelle di mia nonna...:(

Bene, ho confrontato per 15 minuti di fila l'immagine della X800 con quella della 9800: se ora qualcuno di voi riesce a dirmi dove sono le differenze visibili A OCCHIO NUDO (quindi lasciando perdere l'immagine centrale delle 2 foto) fra l'AF trilineare della 9800 e l'AF trilineare della X800, gli faccio un monumento. :)

nonikname
19-05-2004, 19:01
E' una questione di orgoglio!!Nvidia nn potrà mai fare una cosa del genere perchè significherebbe ammettere la vittoria di un suo avversario!Sognati ke Nvdia userà questo algoritmo!Per come la vedo io nn succederà niente pur sapendo di questa cosa perchè resta il fatto ke, cmq, ATI rimane sempre prima e poi tu vorresti credere ke Nvidia nn abbia usato qualche sua ottimizzazione?????Illuso.

Nvidia usa un suo algoritmo simile a quello ATI già da un po , e da gli stessi risultati qualitativi di ATI (l'espressione BRILINEARE è stata coniata appositamente per l'algoritmo adattativo dei filtri bi-tri-lineari Nvidia) , perciò niente di nuovo sotto il sole....
Resta il fatto che Nvidia non si è mai vantata di usare un filtro trilineare , mentre ATI si .... e se queste affermazioni non sono supportate da fatti , sono un'arma a doppio taglio!!!!
Per come la vedo io , non bisogna stabilire se sono ottimi algoritmi senza decadimento di I.Q. , ma bisogna indagare sul fatto che è stata presentata una GPU che non rispetta una delle sue migliori armi ...
Questo è di sicuro un errore grossolano da parte del reparto marketing , dato che ATI l'ardware lo sa fare e l'assenza di ottimizzazioni( o presunte tali ) è sempre stato il cavallo di battaglia di ati..... è anche vero che ora un argomento del genere perde credibilità , proprio nel terreno preferito della casa canadese :qualità grafica e trasparenza...

@ IcemanX
Uhm... viste, e più di una cosa non funziona.

@ Sanitarium
Bene, ho confrontato per 15 minuti di fila l'immagine della X800 con quella della 9800: se ora qualcuno di voi riesce a dirmi dove sono le differenze visibili A OCCHIO NUDO (quindi lasciando perdere l'immagine centrale delle 2 foto) fra l'AF trilineare della 9800 e l'AF trilineare della X800, gli faccio un monumento.

Non ha importanza la differenza di 1 pixel nell'angolazione , ma le porzioni di schermo dove non è applicato il filtro , in questo caso nere ...
Converrai con me che l'X800 applica meno filtri della 9800 e come quantità è leggermente superiore alla 5950 e questo si nota subito , senza stare a contare i pixel neri ....( + pixel neri = meno lavoro per la GPU)
Gli shots , in questo caso , si possono confrontare solo così , infatti con i mipmap colorati di tanti bench implementati nei giochi(UT2003) , non si può notare la differenza , dato che qui stranamente (cough!) l'algoritmo ATI "vede" troppa differenza fra un mipmap colorato e l'altro ed applica sempre il trilineare ....

P.S. ricordo ai non addetti che(a grandi linee) i filtri bi e trilineare servono a rendere + graduale il passaggio fra un mipmap e l'altro : se tali filtri vengono applicati ovunque si ha un grosso carico per la GPU , ma è anche vero che applicandoli solo in certe posizioni la qualità grafica rimane pressochè identica , ma il carico della gpu diminuisce

E la vita dei Benchmark & benchmaker si fa sempre + difficile ....

sanitarium
19-05-2004, 19:13
Originariamente inviato da nonikname

Non ha importanza la differenza di 1 pixel nell'angolazione , ma le porzioni di schermo dove non è applicato il filtro , in questo caso nere ...
Converrai con me che l'X800 applica meno filtri della 9800 e come quantità è leggermente superiore alla 5950 e questo si nota subito , senza stare a contare i pixel neri ....( + pixel neri = meno lavoro per la GPU)
Gli shots , in questo caso , si possono confrontare solo così , infatti con i mipmap colorati di tanti bench implementati nei giochi(UT2003) , non si può notare la differenza , dato che qui stranamente (cough!) l'algoritmo ATI "vede" troppa differenza fra un mipmap colorato e l'altro ed applica sempre il trilineare ....

P.S. ricordo ai non addetti che(a grandi linee) i filtri bi e trilineare servono a rendere + graduale il passaggio fra un mipmap e l'altro : se tali filtri vengono applicati ovunque si ha un grosso carico per la GPU , ma è anche vero che applicandoli solo in certe posizioni la qualità grafica rimane pressochè identica , ma il carico della gpu diminuisce

E la vita dei Benchmark & benchmaker si fa sempre + difficile ....

Ok, le zone nere nella foto della X800 sono più presenti rispetto a quelle che ci sono nella foto della 9800. Ma la mia domanda resta sempre la stessa: nell'immagine del gioco vero e proprio, cioè quello a destra della foto, dove sono le differenze visibili fra 9800 e X800?

E non è affatto strano che con i mipmap colorati venga applicato un filtro trilineare puro, semplicemente perché l'algoritmo "si accorge" che i passaggi fra una mipmap colorata e l'altra sono molto drastici, quindi agisce di conseguenza applicando solo il filtro trilineare (cosa che farebbe se necessario anche nei giochi veri e propri).

Quindi proprio non capisco dove sia l'imbroglio verso l'acquirente: nella foto che ritrae il gioco vero e proprio (quella a destra), vedete che la qualità grafica della X800 è peggiore di quella della 9800? Io francamente no, e questo mi basta.

sanitarium
19-05-2004, 19:18
Originariamente inviato da nonikname
Nvidia usa un suo algoritmo simile a quello ATI già da un po , e da gli stessi risultati qualitativi di ATI (l'espressione BRILINEARE è stata coniata appositamente per l'algoritmo adattativo dei filtri bi-tri-lineari Nvidia) , perciò niente di nuovo sotto il sole....
Resta il fatto che Nvidia non si è mai vantata di usare un filtro trilineare , mentre ATI si .... e se queste affermazioni non sono supportate da fatti , sono un'arma a doppio taglio!!!!
Per come la vedo io , non bisogna stabilire se sono ottimi algoritmi senza decadimento di I.Q. , ma bisogna indagare sul fatto che è stata presentata una GPU che non rispetta una delle sue migliori armi ...
Questo è di sicuro un errore grossolano da parte del reparto marketing , dato che ATI l'ardware lo sa fare e l'assenza di ottimizzazioni( o presunte tali ) è sempre stato il cavallo di battaglia di ati..... è anche vero che ora un argomento del genere perde credibilità , proprio nel terreno preferito della casa canadese :qualità grafica e trasparenza...

C'è una cosa fondamentale che però ometti: il filtro brilineare utilizzato nell'AF di NV40 NON è adattivo, è fisso, quindi stai sicuro che avrai sempre la stessa qualità di filtraggio indipendentemente dalla scena visualizzata.
Quello di R420, invece, non è un filtro brilineare come quello di NV40, semplicemente perché l'algoritmo adatta l'uso del filtro trilineare/bilineare a seconda della transizione da una mipmap all'altra. Quindi SE CE NE FOSSE LA NECESSITA', R420 visualizzerebbe la scena con un AF puramente trilineare, cosa che l'AF brilineare di NV40 non sarebbe affatto in grado di fare.

Raven
19-05-2004, 19:24
Originariamente inviato da sanitarium
Io francamente no, e questo mi basta.

idem... a me basta che a occhio nudo (senza fare tanti ingrandimenti, correzioni di gamma, etc etc...) la differenza non sia visibile e poi possono ottimizzare tutto quello che vogliono! :p


:sofico:

sanitarium
19-05-2004, 19:26
Originariamente inviato da Raven
idem... a me basta che a occhio nudo (senza fare tanti ingrandimenti, correzioni di gamma, etc etc...) la differenza non sia visibile e poi possono ottimizzare tutto quello che vogliono! :p


:sofico:

Esatto! :mano:
Finché ATi mi garantisce (e verifico io stesso) che a occhio nudo non ci sono decadimenti qualitativi, io non mi lamento (ne tantomeno mi sogno di lanciare accuse di cheating).

nonikname
19-05-2004, 19:27
L'imbroglio , come ripeto , non è la qualità dell'algoritmo , ma questo:



http://www.computerbase.de/picture/news/7748/4.jpg

Introducendo una Gpu che di default applica il trilineare , si è portati a testare la 6800 con le stesse opzioni e cioè con il trilineare on ....
Dato che tutti hanno creduto alla buona fede ATI (vedi slide sopra) vedendo i bench hanno pensato che fosse una GPU su un altro piano , ma così non è !!!! ( o almeno è tutto da rifare!!)

Ripeto , non mi interessa la qualità finale : gli shots sono stati fatti per cogliere le differenze altrimenti invisibili a occhio nudo (come tu hai giustamente notato) e se nessuno se ne accorgeva avremmo pensato di testare le schede sempre con il trilinear on...

Ti sembra giusto vantarsi di una cosa che non è vera ???

Se si , chiudo qui il discorso ......:(


Edit : ricordo che attivare il trilineare solo in determinate situazioni non porta a degrado d'immagine , ma alleggerisce di molto il carico della gpu...

sanitarium
19-05-2004, 19:49
Originariamente inviato da nonikname
L'imbroglio , come ripeto , non è la qualità dell'algoritmo , ma questo:
http://www.computerbase.de/picture/news/7748/4.jpg

Introducendo una Gpu che di default applica il trilineare , si è portati a testare la 6800 con le stesse opzioni e cioè con il trilineare on ....
Dato che tutti hanno creduto alla buona fede ATI (vedi slide sopra) vedendo i bench hanno pensato che fosse una GPU su un altro piano , ma così non è !!!! ( o almeno è tutto da rifare!!)

Ripeto , non mi interessa la qualità finale : gli shots sono stati fatti per cogliere le differenze altrimenti invisibili a occhio nudo (come tu hai giustamente notato) e se nessuno se ne accorgeva avremmo pensato di testare le schede sempre con il trilinear on...

Ti sembra giusto vantarsi di una cosa che non è vera ???

Se si , chiudo qui il discorso ......:(


Edit : ricordo che attivare il trilineare solo in determinate situazioni non porta a degrado d'immagine , ma alleggerisce di molto il carico della gpu...

Come ho detto nei miei interventi passati, avrei gradito che ATi avesse messo in chiaro da subito il modo in cui agisce l'algoritmo dell'AF implementato in R420, questo è assodato.
Ma si sa, il marketing è una brutta bestia, su questo sono d'accordo con te.

Siccome però quando spendo 500 euro per una scheda video io guardo a come questa è fatta, e non a come questa è pubblicizzata, devo riconoscere anche un'altra cosa: l'AF di R420 mi garantisce comunque una qualità grafica pari a quella di R300, e questo per me è decisamente importante da sottolineare.

Il fatto che il trilineare venga attivato solo in detererminate circostanze porta ad una diminuizione del carico di lavoro della GPU? Bene, significa che gli ingegneri ATi sono riusciti ad ottenere una qualità d'immagine che ad occhio nudo risulta essere identica a prima, ma con meno sforzo, cosa secondo me da applaudire, non da denigrare.
D'altra parte i test (sia velocistici che di IQ) che vengono fatti in sede di recensione vengono condotti a parità di qualità fra due schede concorrenti, non a parità di carico di lavoro che grava sulla GPU.

Il mio sogno sarebbe avere una scheda video che applichi un'AF a tutto schermo (quindi senza adattarsi all'inclinazione delle superfici) e puramente trilineare, ma se questo non posso averlo prendo quello che mi offre il mercato (e mi sembra che sotto il punto di vista pratico non ci si possa lamentare della X800).

aquila18
19-05-2004, 19:50
Io continuo ad essere daccordo con SANITARIUM!E' ovvio che se ingrandisci di 200 milioni di volte potresti notare la differenza ma ragioniamo!!Quando giochi che cavolo te ne frega che il 10 pixel in alto a destra e illuminato in modo trilineare rispetto al bilineare!!Mettetevi bene in testa ke ATI con questa tecnica cerca di guadagnare frame solo quando vede ke la scheda si sta impastando ma subito dopo, o quando consentito, recupera la massima qualità!!!!!Nvidia, come avete detto voi, fa mix di default!Questo, a mio parere, da ancora + punti ad ATI perche' lei, cmq, usa il trilineare puro, quando consentito, e mantiene cmq velocità più elevate!!

T. Alexius
19-05-2004, 19:53
il problema è vero,nn è l'algoritmo in se, ma il fatto che sul sito ( e presumibilmente sulle scatole) c'è scritto XXX mentre in realtà è XXY!


cmq.....



----------------------------------------------
Nella documentazione relativa alla qualità dell'immagine di R420, ATI ha sottolineato più di una volta che i suoi processori grafici eseguono sempre il filtro trilineare puro sia con anisotropico disattivato che con anisotropico in modalità qualità. Questa precisazione è ovviamente riferita alla "ottimizzazione trilineare", definita simpaticamente anche "brilinear filtering", introdotta da NVIDIA nei driver ForceWare di NV40. Abbiamo effettuato alcuni confronti e, come potete vedere, la differenza in termini di implementazione tra la modalità qualità e la modalità qualità senza ottimizzazione è notevole, anche nel semplice filtro trilineare: le transizioni da un livello di dettaglio all'altro sono molto più morbide
-------------------------------------------------------



questo lo scriveva hardware upgrade


pure li è chiaro quel" ATI ha sottolineato più di una volta che i suoi processori grafici eseguono sempre il filtro trilineare



cmq si risolverà tutto in una bolla di sapone con un'opzione da attivare/disattivare dai driver

Jack Ryan
19-05-2004, 19:58
e secondo voi ad occhio nudo a 640x480 o 1600x1200 si noterebbero differenze tra le immagini ? mmhh mah :mc:

aquila18
19-05-2004, 20:27
RAGAZZI LEGGETE QUESTO POST SCRITTO IL 21/7/2003!!!!!


Cari amici (mi rivolgo ai neutrali nella sfida Ati vs nVidia e che vogliono
capire bene il significato del mio intervento) cari amici, dicevo, dovete
sapere che tutti o quasi i bench che vedete nelle varie recensioni online, si
basano con le impostazioni regolate su "quality"; e quando si regola "quality"
nelle schede nVidia, si applica nel 99% dei casi un filtro trilineare puro,
piu' qualitativo del filtro bilineare ma anche piu' oneroso in termini di
prestazioni; mentre quando si regola "quality" nelle schede ATI, si applica
nel 99% dei casi un filtro che e' in parte trilineare ed in gran parte
bilineare, cioe' Ati, in parole povere, riduce la qualità per aumentare la
velocità.
Un sito tedesco (il link lo troverete con google), poche settimane fa, ha
voluto vedere la differenza tra le 2 modalita': prima, ha rilevato i risultati
di Ati con impostazioni regolate su "quality", come si fa di solito nelle
recensioni e poi, tramite un software esterno, ha rifatto tutti i test
applicando realmente il trilineare puro.
Risultato: le prestazioni sono scese sensibilmente, fino al 30%.

Non sono sorpreso; sono solo le prove di cio' che ho sempre pensato: quando
viene applicata realmente la qualità, le Radeon non sono cosi' veloci come
appaiono nei bench.


Mi vien da ridere al pensiero di quei recensori che hanno sempre parlato di
una superiore qualità ATI; di gente che si lamentava di una nVidia che
"abbassa la qualita' per aumentare il framerate" in questa o quella
applicazione quando Ati lo fa continuamente in ogni applicazione; di persone
come Clarici che dicevano:" Guardate Ut2k3, lo screen della Fx ... sullo
sfondo ... che mi sembra che ....", quando ATI, quel giochettino di abbassare
la qualita' sullo sfondo, lo fa in OGNI GIOCO, IN OGNI APPLICAZIONE, *SEMPRE*
... *tutte le volte* che si regola su Quality.

Black87
19-05-2004, 20:35
è questo il punto: i benchmark vengono testati con dei filtri di tipo diverso ed una scheda ha più difficoltà di un'altra in un certo bench per questo motivo. Questo viene fatto non per colpa di coloro che fanno le recensioni ovviamente ma per colpa di ATi che spaccia il filtro "bRilineare" per trilineare. A questo punto sorge la domanda:cosa farebbe una scheda nvidia in certe condizioni? perchè i test non vengono fatti nelle stesse condizioni? allora propongo come ha fatto nonikname di ritestare le schede tenendo conto di questi parametri. Mi sbaglio?

DjLode
19-05-2004, 20:57
Originariamente inviato da sanitarium
Come ho detto nei miei interventi passati, avrei gradito che ATi avesse messo in chiaro da subito il modo in cui agisce l'algoritmo dell'AF implementato in R420, questo è assodato.
Ma si sa, il marketing è una brutta bestia, su questo sono d'accordo con te.


Francamente, già gli hanno copiato il filtro precedente, se divulgava notizie troppo precise e gli copiavano anche questo? Non è marketing, è solo il voler tutelare le proprie risorse.

MaBru
19-05-2004, 21:10
Originariamente inviato da Black87
i possessori della 9600 allora cosa han fatto sino ad ora? mica lo sapevano che c'era questa selezione del filtro

E nemmeno se ne sono accorti... ;)

MaBru
19-05-2004, 22:03
Ecco la trascrizione della chat con ATI finita giusto pochi minuti fa. Con una piccola sorpresa. :)



TheRock why are you not doing full AF ?

Andy/Raja Would you say that our AF is not "full" AF? After all, we've been using an adaptive method for this since the R200. If you select 16x in the control panel, you may get 8x, 4x, or 2x depending on how steeply angled the surface is. Doing 16x AF on a wall you're viewing straight on would look exactly the same as no AF, but require 16x more texture samples. Why would it make any sense to do this? This is exactly the same idea we're using for trilinear filtering.

rush Why are your trilinear optimizations different to what Nvidia is doing ?

Andy/Raja Raja: We won't comment on competitor's algorithms. Our focus is to retain full image quality while offering the best performance possible.

No-one is suggesting that our texture filtering algorithms produce a worse output than previous generations . In fact, if we took them out now the speed would be marginally less and we will receive complaints from users that our quality is lower . We did receive feedback from several folks who think that the X800 IQ is better than our 9800 series - it is always our goal to improve quality in newer hardware generations . To assist in this we have many additional quality controls in hardware in X800 series than on 9800

Our target is also to avoid any need to detect applications, and as such we have to try to be sure that our image quality remains high in all cases. To achieve this we spent a lot of effort developing algorithms to make the best use of our quality tuning options. This isn’t a performance enhancement applied to popular gaming benchmarks , it’s a performance boost – without image degradation – applied generically to every game that uses box-filtered mipmaps, which is most of them. This means, incidentally, that it’s working during the WHQL tests (unlike optimizations activated by application detection), which means that it has to meet the very stringent image quality requirements of those tests.

TheRock will full trilinear filtering be allowed to be set in the drivers ?

Andy/Raja We try to keep the control panel as simple as possible (even as its complexity increases), and if the image quality is identical or better there doesn't seem to be a need to turn it off. However, if our users request otherwise and can demonstrate that it's worthwhile, we would consider adding an option to the control panel.

singer is this really trilinear filtering ?

Andy/Raja Yes, It's a linear function between the two mipmap levels based on the LOD.

gs. When will ATI restore full trilinear so that review sites can actually rebench and retest your cards, since any previous review benchmarks is invalidated by this cheat/optimisation/whatever?

Andy/Raja We have never removed "full trilinear". We certainly do not believe that any benchmarks have been invalidated by our techniques. In all cases reviewed so far we believe that we have higher image quality than other implementations.

Sphinx Question 1 : Is Ati cheating if Colored MipMaps are enabled and shows True FULL_TRI AF and Only Then. Like the Article in ComputerBase.de Descripe it as such one.

Andy/Raja Absolutely not. If it were the case that we were only performing full trilinear with coloured mipmaps then you might have a point, but this is emphatically not what we do. We take advantage of properties of texture maps for performance and IQ gains. In cases where we are not able to determine that the texture content is appropriate for these techniques we use legacy trilinear filtering. This includes cases such as dynamically uploaded texture maps where we avoid performing analysis so as not to cause any possible gameplay hitches.

volt_Bjorn3D I think the whole community appreciates the time and the initiative for doing a chat about current filtering algorithm which certainly raised a few issues. Question: was the new filtering algorithm intentional and if you could tell us why werent review sites notified about it. Thanks

Andy/Raja We are constantly tuning our drivers and our hardware. Every new generation of hardware provides the driver with more programmability for features and modes that were hard-wired in the previous generation. We constantly strive to increase performance and quality with every new driver release. There are literally dozens and dozens of such optimizations that went into our drivers in the last year or so. Sometimes many such optimizations are not even communicated internally to marketing and PR teams for example. And many optimizations are very proprietary in nature and we cannot disclose publicly anyways.

astaroth is x800's hardware able to do "traditional" trilinear or is the new algorithm completely hardwired (not that I would mind :-) ??

Andy/Raja The X800 hardware is capable of all features of previous generations, and many more besides.

Raja/Andy says alp:
is this http://www.ixbt.com/video2/images/r420xt/r420-anis0x.jpg (copy and past it) bilinear or bri/trillinear as is is supposed to be...i heard it is possilby a bug in cod causing it to set filtering to bi rather than a really bad trillinear filtering method, is this true?

Andy/Raja:
This we believe is test error and the X800 images appear to be obtained using only a bilinear filter. We have been unable to reproduce this internally. Also, note that the game defaults to bilinear when a new card is installed and this may explain the tester error

Raja/Andy says question from Singer:
why did ATI say to the general public that they were using trilinear by default, when in fact it was something else? (quality is ok, i agree, but you did deceive, by claiming it to be a trilinear)

Our Answer:
We understand that there was confusion due to the recent reports otherwise. We provide trilinear filtering in all cases where trilinear filtering was asked for. As has been demonstrated many times by several people - almost every hardware has a different implementation of lod calculation and filtering calculations. If we start calling all the existing filtering implementations with different names - we will end up with many names for trilinear.

Raja/Andy says question from Wer:
is bit comparison difference images can highlight IQ differences surely there must be some - why do you say there are no IQ differences when these comparisons show otherwise?

Our Answer:
The bit comparision differences between implementations occur due to many reasons. We constantly make improvements to our hardware algorithms. Bit comparisions just say they are different - not necessarily that one is better than the other. We always on the lookout for cases where we can find IQ problems with our algorithms. We can guarantee you that there will be bit-wise mis-matches withour future generation hardware too and the future generation hardware will be better. Our algorithms are exercized by the stringent MS WHQL tests for mipmap filtering and trilinear and we pass all these tests. These tests do not look for exact bit matches but have a reasonable tolerance for algorthmic and numeric variance.

Raja/Andy says question from crushinator:
Is this Algorythm implemented in hardware? who's analysing texture maps, is it just the driver doing that or is it the chip?

Our Answer:
The image analysis is performed by the driver to chose the appropriate hardware algorithm. This allows us to continually improve the quality and performance with future drivers.

Raja/Andy says question from Bouncing Zabaglione Brothers:
If its so good, why has it remained hidden from the public and not marketed as "ATI SmartFilter" or somesuch? Surely if its as good as you say (better quality, faster speed), ATI marketing should be crowing about it? One of the issue here is that it *looks* like ATI is trying to hide things, even if what you have is a genuine improvement for the customer.

Our Answer:
The engineering team at ATI is constantly improving our drivers by finding ways to take better advantage of the hardware. These improvements happen during all the catalyst releases. We might have missed an oppurtunity to attach a marketing buzzword to this optimization!

Raja/Andy says question from Hanners79:
can you give a more detailed explanation as to why the use of coloured mipmaps shows the use of full trilinear, which doesnt correspond to what seems to occur in a normal, real-world situation?

Our Answer:
Coloured mipmaps naturally show full trilinear as our image quality analysis reveals that there could be visible differences in the image. It should be noted that trilinear was originally invented to smooth transitions between mip-levels, and in the original definition mip-levels should be filtered versions of each other, as coloured mip-levels clearly are not. Despite this, we understand that people often make use of hardware for purposes beyond that originally envisioned, so we try to make sure that everything always functions exactly as expected.

Raja/Andy says question from Cthellis:
From previous comments, there have been mention of this technique used for a while (~12 months?) in the RV300 series of chips, but most as with R420. can you tell us which cards, which Catalyst versions, and/or which games exist where we can see similar tendencies,

Our Answer:
We had new filtering algorithms in places since Cat 3.4 or so. Note that the image quality improved over various driver updates since. Also, as noted earlier, X800 provides better controls than earlier parts. It will be hard to find an exact match with our earlier hardware and drivers.

Raja/Andy says question from mabru:
Dont you think such a tradeoff is inconceivable in a 500$ graphic card?

Our Answer:
We think that what we do is expected of all our cards, in particular the more expensive ones. Our users want the best looking results and the highest quality results. They want us to go and scratch our heads and come up with new ways to improve things. Users of ATI cards from last year want us to come out with new drivers that improve their performance and maintain the image quality. We have dedicated engineering teams that work hard to improve things. It's an ongoing effort, exploring new algorithms, finding new ways to improve the end user experience, which is what all this is about. And we are listening too; if you don't like what we offer, let us know and we will strive to improve things.

Raja/Andy says question from: anonymouscoward
Image quality is a relative term. The real question is, "does the claimed 'trilinear filtering' produce a byte-for-byte replica of 'true trilinear filtering'?" Whether or not the image quality is "the same" or "essentially" the same is irrelevant to this questions

Our Answer:
Byte for byte compared to what? "True trilinear" is an approximation of what would be the correct filtering, a blending between two versions, one which is too blurry and one too sharp. An improved filter is not byte for byte identical to anything other than itself, but that doesn't mean it isn't a better approximation.

Raja/Andy says question from wild_neo:
do you think that you still can compare the benchmarks with other brands, even if you use that different approach (non-equivalent technique)?

Our Answer:
We've answered this, and yes, we feel we can compare ourselves to any brand, as we believe our quality and performance are higher. Perhaps at times we should be upset about people comparing us to lower quality implementations :-)

Raja/Andy says question from Toaster:
whats the patent number and filing date of this algo?

Our Answer:
This is in the patent pending process right now. So we will not put out the actual patent information at this time. Once approved, anyone can go read the patent.

Raja/Andy says question from chris:
What performance boost does this give you, anyway?

Our Answer:
It's a very mild optimization at the default levels, so of the order of a few percent. But this is a neat algorithm - we encourage you to take the texture slider all the way towards "performance" - we don't think you'll be able to see any image change until the very end, and the performance increases are significant.
Raja/Andy says Thanks for your time. We appreciate your persistence through the technical difficulties. To ensure that you can all read all the answers, we will post the transcript of the session at www.ATI.com/online/chat.


:D

sanitarium
19-05-2004, 22:09
Originariamente inviato da MaBru
E nemmeno se ne sono accorti... ;)

Un motivo ci sarà, no? ;)

Ma mi sa che questa cosa diventerà una specie di caccia alle streghe...

sanitarium
19-05-2004, 22:14
Originariamente inviato da aquila18
RAGAZZI LEGGETE QUESTO POST SCRITTO IL 21/7/2003!!!!!


Cari amici (mi rivolgo ai neutrali nella sfida Ati vs nVidia e che vogliono
capire bene il significato del mio intervento) cari amici, dicevo, dovete
sapere che tutti o quasi i bench che vedete nelle varie recensioni online, si
basano con le impostazioni regolate su "quality"; e quando si regola "quality"
nelle schede nVidia, si applica nel 99% dei casi un filtro trilineare puro,
piu' qualitativo del filtro bilineare ma anche piu' oneroso in termini di
prestazioni; mentre quando si regola "quality" nelle schede ATI, si applica
nel 99% dei casi un filtro che e' in parte trilineare ed in gran parte
bilineare, cioe' Ati, in parole povere, riduce la qualità per aumentare la
velocità.
Un sito tedesco (il link lo troverete con google), poche settimane fa, ha
voluto vedere la differenza tra le 2 modalita': prima, ha rilevato i risultati
di Ati con impostazioni regolate su "quality", come si fa di solito nelle
recensioni e poi, tramite un software esterno, ha rifatto tutti i test
applicando realmente il trilineare puro.
Risultato: le prestazioni sono scese sensibilmente, fino al 30%.

Non sono sorpreso; sono solo le prove di cio' che ho sempre pensato: quando
viene applicata realmente la qualità, le Radeon non sono cosi' veloci come
appaiono nei bench.


Mi vien da ridere al pensiero di quei recensori che hanno sempre parlato di
una superiore qualità ATI; di gente che si lamentava di una nVidia che
"abbassa la qualita' per aumentare il framerate" in questa o quella
applicazione quando Ati lo fa continuamente in ogni applicazione; di persone
come Clarici che dicevano:" Guardate Ut2k3, lo screen della Fx ... sullo
sfondo ... che mi sembra che ....", quando ATI, quel giochettino di abbassare
la qualita' sullo sfondo, lo fa in OGNI GIOCO, IN OGNI APPLICAZIONE, *SEMPRE*
... *tutte le volte* che si regola su Quality.

Questo estratto è quanto di più approssimativo e superficiale abbia mai letto.
Praticamente in questo post si parla di sole prestazioni senza tenere minimamente conto del fatto che, qualitativamente, potrebbe non cambiare un accidenti fra l'avere un'algoritmo "stupido" che applica sempre e comunque il filtro trilineare e l'avere un algoritmo "intelligente" che decide quando applicare il trilineare e quando invece basta il bilineare.

Quando si dice "disinformazione"...

sanitarium
19-05-2004, 22:51
Originariamente inviato da MaBru
Ecco la trascrizione della chat con ATI finita giusto pochi minuti fa. Con una piccola sorpresa. :)

[...]


:D

Ho appena finito di leggere tutta la sessione di chat: lettura decisamente consigliata. :)

nonikname
19-05-2004, 22:55
Bella la domanda del tizio che ha chiesto come mai nella presentazione hanno asserito che "l' X800 è l'unica scheda che fornisce il trilinear filtering on di default" ; Risposta:"ci siamo dimenticati di comunicarlo al reparto Marketing" lol !!! :sofico:

Per essere una dimenticanza , trovo strano che non siano riusciti a comunicarla nemmeno al lancio della scheda : potevano avvertire almeno i recensori , così testavano per bene le 2 marche e facevano una bella figura ... e le performance?? ... quelle vengono dopo , l'importante è non usare trucchi tipo il Brilinear di NV :D
Nel giorno del lancio , questa dimenticanza , ha fatto fare una bella figura all'R420 , ma dovevano calcolare che prima o poi tale "amnesia momentanea" sarebbe venuta fuori : perchè allora non l'hanno comunicato fino al giorno della sua scoperta??... forse per il brevetto ?? ma non scherziamo , se è dai tempi della 9600 che questo algoritmo è in funzione hanno avuto più di un anno per brevettarlo , come hanno avuto più di un'anno per dire a tutti che la 9600 non adottava il trilineare con il settaggi quality al massimo.....


Ci sono già in giro dei test , che attivano il trilineare da tools esterni (e non dal pannello di controllo) e la perdita di prestazioni è consistente ....per non parlare di tutti i bench che i recensori si apprestano a rifare...

Se è una caccia alle streghe , la prima l'hanno già legata sul portabagagli , adesso si tratta di "ridimensionare i bench ...

sanitarium
19-05-2004, 23:03
Originariamente inviato da nonikname
Bella la domanda del tizio che ha chiesto come mai nella presentazione hanno asserito che "l' X800 è l'unica scheda che fornisce il trilinear filtering on di default" ; Risposta:"ci siamo dimenticati di comunicarlo al reparto Marketing" lol !!! :sofico:

Per essere una dimenticanza , trovo strano che non siano riusciti a comunicarla nemmeno al lancio della scheda : potevano avvertire almeno i recensori , così testavano per bene le 2 marche e facevano una bella figura ... e le performance?? ... quelle vengono dopo , l'importante è non usare trucchi tipo il Brilinear di NV :D
Nel giorno del lancio , questa dimenticanza , ha fatto fare una bella figura all'R420 , ma dovevano calcolare che prima o poi tale "amnesia momentanea" sarebbe venuta fuori : perchè allora non l'hanno comunicato fino al giorno della sua scoperta??... forse per il brevetto ?? ma non scherziamo , se è dai tempi della 9600 che questo algoritmo è in funzione hanno avuto più di un anno per brevettarlo , come hanno avuto più di un'anno per dire a tutti che la 9600 non adottava il trilineare con il settaggi quality al massimo.....


Ci sono già in giro dei test , che attivano il trilineare da tools esterni (e non dal pannello di controllo) e la perdita di prestazioni è consistente ....per non parlare di tutti i bench che i recensori si apprestano a rifare...

Se è una caccia alle streghe , la prima l'hanno già legata sul portabagagli , adesso si tratta di "ridimensionare i bench ...

A questo punto mi sorge una domanda: come mai R300 e NV30 sono stati messi a confronto, nonostante il fatto che il primo applica un AF adattivo rispetto all'angolazione delle superfici mentre il secondo applica un AF a tutto schermo? Rifacciamo anche quei test?

E perché, sempre parlando di R300 vs NV30, non rifacciamo anche i test che riguardano l'AA, visto che ATi AA2x = NVidia AA4x?

Ma ci rendiamo conto che per un'algoritmo adattivo che rende qualitativamente come un algoritmo che applica solo il trilineare stiamo imbastendo un casino tale da pretendere di rifare da capo tutte le recensioni?
Ma vi piace davvero tanto lo spreco di potenza delle GPU?

Se questa non è una caccia alle streghe...

Raven
19-05-2004, 23:11
Originariamente inviato da sanitarium
A questo punto mi sorge una domanda: come mai R300 e NV30 sono stati messi a confronto, nonostante il fatto che il primo applica un AF adattivo rispetto all'angolazione delle superfici mentre il secondo applica un AF a tutto schermo? Rifacciamo anche quei test?

E perché, sempre parlando di R300 vs NV30, non rifacciamo anche i test che riguardano l'AA, visto che ATi AA2x = NVidia AA4x?

Ma ci rendiamo conto che per un'algoritmo adattivo che rende qualitativamente come un algoritmo che applica solo il trilineare stiamo imbastendo un casino tale da pretendere di rifare da capo tutte le recensioni?
Ma vi piace davvero tanto lo spreco di potenza delle GPU?

Se questa non è una caccia alle streghe...


Pienamente d'accordo!... anzi... io la trovo una feature davvero ben congegnata e utile (stessa qualità a minor "prezzo")...
Certamente potevano dirlo, questo sì...

sanitarium
19-05-2004, 23:17
Originariamente inviato da Raven
Pienamente d'accordo!... anzi... io la trovo una feature davvero ben congegnata e utile (stessa qualità a minor "prezzo")...
Certamente potevano dirlo, questo sì...

Esattamente: secondo me l'unica colpa imputabile ad ATi è l'aver omesso il fatto che il suo algoritmo per l'AF adatta l'uso del bilineare e del trilineare a seconda della scena visualizzata.

Per il resto, nella pratica, c'è ben poco di cui lamentarsi: la qualità a occhio nudo è identica a quella ottenuta con una 9800, questi sono fatti, non chiacchiere.
Ammettendo questo, diventa automaticamente assurdo pensare che bisogna rifare tutti i test forzando l'uso del trilineare puro.

Se poi le schede video si acquistano per ciò che sta scritto sulla scatola, anziché per la qualità che offrono, allora smetto di discutere...

DjLode
19-05-2004, 23:17
Teoricamente il filtro anisotropico deve fare qualcosa, ma come detto non esiste un filtro univoco per farlo. Semplicemente questo è un algoritmo nuovo. Non è una caccia alle streghe, è semplicemente il non voler accettare modi diversi di applicare la stessa cosa. Perchè come detto da altri bisogna per forza portare due cose allo stesso livello per confrontarle? Allora un Athlon deve essere portato alla frequenza di un P4 o viceversa per produrre dati veritieri? No. E la risposta è la stessa nel caso dei filtri, se e ribadisco se, in movimento l'immagine è fondamentalmente identica, ben venga un algoritmo che fa la stessa cosa di prima con meno peso. Si è accettato il compilatore nei driver delle FX che produceva risultati ben peggiori e si cerca di demonizzare questa cosa...

sanitarium
19-05-2004, 23:19
Originariamente inviato da DjLode
Teoricamente il filtro anisotropico deve fare qualcosa, ma come detto non esiste un filtro univoco per farlo. Semplicemente questo è un algoritmo nuovo. Non è una caccia alle streghe, è semplicemente il non voler accettare modi diversi di applicare la stessa cosa. Perchè come detto da altri bisogna per forza portare due cose allo stesso livello per confrontarle? Allora un Athlon deve essere portato alla frequenza di un P4 o viceversa per produrre dati veritieri? No. E la risposta è la stessa nel caso dei filtri, se e ribadisco se, in movimento l'immagine è fondamentalmente identica, ben venga un algoritmo che fa la stessa cosa di prima con meno peso. Si è accettato il compilatore nei driver delle FX che produceva risultati ben peggiori e si cerca di demonizzare questa cosa...

E' proprio per questo che parlo di caccia alle streghe: il voler a tutti i costi trovare del marcio in qualcosa che nella pratica va solo a nostro vantaggio.

DjLode
19-05-2004, 23:20
Originariamente inviato da sanitarium
E' proprio per questo che parlo di caccia alle streghe: il voler a tutti i costi trovare del marcio in qualcosa che nella pratica va solo a nostro vantaggio.

Ah, ok. Inteso male io il senso della frase.

MaBru
19-05-2004, 23:20
Originariamente inviato da DjLode
Teoricamente il filtro anisotropico deve fare qualcosa, ma come detto non esiste un filtro univoco per farlo.

Anche perché è sbagliato chiamare anisotropico il filtro applicato da ATI (e dall'NV40). Sarebbe più corretto chiamarlo ISOTROPICO.

Fabryce
19-05-2004, 23:27
Originariamente inviato da DjLode
Teoricamente il filtro anisotropico deve fare qualcosa, ma come detto non esiste un filtro univoco per farlo. Semplicemente questo è un algoritmo nuovo. Non è una caccia alle streghe, è semplicemente il non voler accettare modi diversi di applicare la stessa cosa. Perchè come detto da altri bisogna per forza portare due cose allo stesso livello per confrontarle? Allora un Athlon deve essere portato alla frequenza di un P4 o viceversa per produrre dati veritieri? No. E la risposta è la stessa nel caso dei filtri, se e ribadisco se, in movimento l'immagine è fondamentalmente identica, ben venga un algoritmo che fa la stessa cosa di prima con meno peso. Si è accettato il compilatore nei driver delle FX che produceva risultati ben peggiori e si cerca di demonizzare questa cosa...

Son d'accordo anche io e vorrei aggiungere che è una strada molto promettente, quella della ottimizzazione dell' AF....

DjLode
19-05-2004, 23:28
Mi sfugge il motivo visto che come ho detto non è l'applicazione di bi o tri linear che caratterizza il filtro ma tutt'altro. Io parlo poi di defizioni non di "come viene meglio".

nonikname
20-05-2004, 01:32
Forse non è mai abbastanza , ma se lo ripeto magari a qualcuno entra in testa :

Si sta parlando di una promessa non mantenuta e non di come si formula una promessa :

- ATI dice al mondo intero che la sua scheda è l'unica a non dover utilizzare trucchi o algoritmi che modificano l'applicazione del filtro da trilineare a bilineare a seconda dei mip-levels come Nvidia ma offre un Filtro trilineare puro by Default...

- Molte recensioni vengono fatte con l'accorgimento di settare dai forceware 61.11 il trilineare (se in qualche gioco la forzatura via driver non ha effetto si usano tools esterni) e sui Catalyst il massimo della qualità , che dovrebbe corrispondere al trilineare.

- Stranamente molte recensioni riportano valori discordanti su molti giochi , ma si pensa al famoso collo di bottiglia della CPU o alle presunte alleanze fra siti e Brand...


- ComputerBase.de scopre che , usando una feature del bench implementato in Unreal Tournament e i mipmap colorati , vi sono differenze di FPS fra il test fatto sul gioco e quello fatto con i mip map : (secondo la Epic , se ci sono differenze fra i due test c'è qualche ottimizzazione sull'applicazione dei filtri)
In seguito , sempre Computerbase , scopre sostanziali differenze di FPS fra l'attivazione del trilineare dal pannello di controllo e quella da tools esterni ( o opzione attivabile nel gioco)

- in Giro per il web si vagliano i vari screenshots dei filtri trilineari e si scopre che in Call of Duty (recensione X800 digitlife) il filtro applicato sulla X800 è sempre bilineare (settandolo a trilineare da pannello di controllo ATI) mentre attivandolo da un tool esterno le prestazioni calano di un buon 20% .... La gente comincia a capire perchè sullo stesso gioco molti siti davano valori di FPS discordanti ....

- Scoperto l'arcano ATI dice al web che le sue schede grafiche nuove e la 9600 non applicano sempre il trilineare , ma offrono una sorta di algoritmo (patent-pending *cough-cough*) che decide dove applicare il filtro a seconda della differenza dei mipmap contigui...

- Nei vari forum si comincia a disquisire sulla "discutibile" scelta di ATI e del fatto che solo la serie 9700-9800 applica sempre il trilineare ....

- Preoccupata di ciò ATI offre una chat con i vari utenti e si giustifica dicendo che si è solo dimenticata di comunicare "l'arcano" al reparto Marketing ..
Alla domanda:" perchè in seguito non lo avete comunicato?" riponde :"Perchè in ogni release di Catalyst ci sono dozzine di nuove implementazioni..."


RIFLESSIONI:

Nell'analisi di una GPU è estremamente importante capire l'efficacia dell'architettura semplicemente attivando i filtri bi-trilineare su vecchi giochi Opengl (quake3 o SSSE) o DX 7-8 così da eliminare la "variabile" Shaders 2.0 , che complicherebbe l'equazione..
Molti bench sulle X800 non hanno tenuto conto che il presunto trilinear On era , nella migliore delle ipotesi , un mix di bilinear e trilinear..
Il brilinear di Nvidia è già noto da tempo , quindi molti test sono stati svolti con il trilinear attivato dal gioco , da tool esterno o da Forceware penalizzando di molto la 6800 nel confronto con l'X800..

Qui non si parla di qualità grafica dei Pixel shaders o dei Filtri AA o AF ma di trilineare o bilineare , facilmente comparabili sulle due schede su giochi non recenti ..... Da adesso , questi test , potranno essere fatti regolarmente perchè fino ad oggi ATI ha tenuto "nascosto" il suo algoritmo ....
Se ci pensate bene , non c'è un gioco che non usi il filtro trilineare , quindi quasi tutti i giochi sono da ri-testare al massimo della qualità con tutte e due le marche.... quindi non solo NV trilineare vs algoritmo ATI ma bilinear , brilinear e trilinear su entrambe le marche , tanto per facilitare la vita di Vifani e Corsini :D (anche solo bri vs bri e tri vs tri andrebbe bene)


Ricordo che il filtro trilineare usa il doppio della banda del bilineare , quindi un confronto in situazioni identiche è d'obbligo fra le GPU per capirne la reale potenza in ambito elaborativo.... Rimane ovvio che nelle comparazioni di GPU moderne non bisogna limitarsi al solo filtro trilineare , ma la veloce esecuzione di questi filtri è alla base di tutti gli engine , da quello più vecchio al più moderno , quindi applicare il trilineare su tutte le gpu è l'unico modo per comparare 2 architetture così diverse ...

Bottom line

Sperare che non ci siano ottimizzazioni o trucchi è utopia , ma renderle pubbliche così da potersi regolare di conseguenza è più che lecito ...
Spacciare affermazioni false è comunque grave e non lo ritengo un normale polverone o una caccia alle streghe : facendovi un esempio potrei dire che ATI nelle slide ha affermato che ha costruito una macchina a trazione integrale permanente , ma solo oggi si scopre che la trazione è , a seconda dei casi , o posteriore o anteriore : niente da dire sul fatto che sia 4 x 4 ma se permetti questa è una presa per il culo ....

Nino Grasso
20-05-2004, 01:43
non mi pare che il "brilinear" avesse un decadimento nella qualità dell'immagine durante le fasi di gioco e intanto tutti a criticarlo e a inveire contro di esso... adesso è ati che addirittura non applica un ibrido, ma direttamente il bilinear in alcuni casi, e allora tutti ad elogiarlo per la qualità spesse volte eguale... ma il nocciolo della questione è: com'è che le cose ATi le rivela solo dopo che vengono scoperte dagli utenti??? Parliamo del TAA, incluso negli NDA come esclusiva delle X800 Series... c'è scappato l'utente che ha scoperto l'inghippo ed ecco che non è + tanto una novità, ma è utilizzabile anche nelle versioni precedenti delle schede... adesso è successo con quello e "Toh ce ne siamo dimenticati"... ragazzi basta questo "fanatismo" inutile... ognuno si compra ciò che vuole... da entrambe le parti ci sono ottimi prodotti (come in ogni generazione del resto) e nessuno ha, rispetto ad un altro, le caciotte davanti agli occhi... ovvio che poi ognuno cerca di far passare per migliore il proprio prodotto, ma questo è marketing, e marketing non significa necessariamente una cosa negativa... anzi!! per il discorso "rifare i benchmark" mi sembra giustissimo che le schede vengano testate al massimo della qualità, anzi scontato dire... questo che ha usato ATi a mio modo di pensare è un trucco bello e buono, nessuna dimenticanza nè genio ingegneristico: infatti ha cercato solamente di superare NV40 in maniera a mio parere illecita, o perlomeno non del tutto corretta, in quanto si è spacciata una cosa per la sua opposta scrivendo che "a differenza della concorrenza non abbiamo bisogno di ottimizzazioni", è questo il nocciolo della questione, non il puntino della differenza qualitativa che alla fine non ci stava manco con il brilinear...
e guarda caso dov'è che le nuove X800 superano in % le 6800??? SOLO nel filtraggio anisotropico...

Nino Grasso
20-05-2004, 01:47
mi inchino alla saggezza di nonikname... a sto punto posso pure consigliarvi di non leggervi il mio precedente post :D anzi si ouh... non l'ho mica scritto per niente!

psychok9
20-05-2004, 04:23
Secondo me non avete chiara la differenza tra ottimizazzione e cheat... tipo nVidia su 3DMark...:muro:

Noi vogliamo schede + veloci e sempre di maggior qualità grafica...
Cosa vi frega come li ottiene? L'importante è la qualità finale visiva e le prestazioni! Se questi chip iniziano ad usare 1 po' di cervello nell'elaborare le immagini vi lamentate pure!!!:confused:

DjLode
20-05-2004, 11:31
Originariamente inviato da psychok9
Secondo me non avete chiara la differenza tra ottimizazzione e cheat... tipo nVidia su 3DMark...:muro:

Noi vogliamo schede + veloci e sempre di maggior qualità grafica...
Cosa vi frega come li ottiene? L'importante è la qualità finale visiva e le prestazioni! Se questi chip iniziano ad usare 1 po' di cervello nell'elaborare le immagini vi lamentate pure!!!:confused:

Amen :)


e guarda caso dov'è che le nuove X800 superano in % le 6800??? SOLO nel filtraggio anisotropico...


Forse ti sei pezzo qualche paginata di recensione :)

sanitarium
20-05-2004, 11:54
Ragazzi, io le mie idee le ho espresse, mi sembra di aver analizzato correttamente il problema, ho messo in luce quella che per me è stata la colpa di ATi, e resto sulle mie posizioni per quanto riguarda la bontà del suo filtro anisotropico.

Per me la discussione finisce qui. :)

Black87
20-05-2004, 12:47
sto riguardando dei thread riguardo il filtro bRilineare di nvidia quando era utilizzato. Oggi le stesse persone che ora esaltano la bontà del filtro ATi erano le più accanite contro nvidia. Fantastico :D

DjLode
20-05-2004, 13:05
Originariamente inviato da Black87
sto riguardando dei thread riguardo il filtro bRilineare di nvidia quando era utilizzato. Oggi le stesse persone che ora esaltano la bontà del filtro ATi erano le più accanite contro nvidia. Fantastico :D

Guarda anche quelli che si accanivano sul filtro anisotropico adattativo di Ati dicendo che quello di Nvidia era il vero filtro e che oggi non dicono una parola sul fatto che NV40 abbia il filtro identico all'R300 :)
Non guardare solo la faccia della medaglia che pare a te :)

sanitarium
20-05-2004, 13:25
Originariamente inviato da Black87
sto riguardando dei thread riguardo il filtro bRilineare di nvidia quando era utilizzato. Oggi le stesse persone che ora esaltano la bontà del filtro ATi erano le più accanite contro nvidia. Fantastico :D

Potresti riportarmi i link di questi thread?

Nino Grasso
20-05-2004, 14:02
ma non si sta parlando della qualità del filtro e per dio!!! qua partliamo della manovra di marketing ATi al limite della correttezza!!! non può dire utilizziamo questo quando utilizza altro!!! ma per favore un po' di parzialità scusate... l'x800 è una grande schedona, nessuno può metterlo in dubbio ma quì non si parla della bontà della scheda ma delle prese in giro...
per quanto riguayrda le rece non mi pare che le 6800 in generale (ne ho lette parecchie) avesse problemi architetturali di sorta, ma una piccola perdita nell'af quando utilizzato con piueno trilinear... si è visto adesso che erano bench fatti NON a parità di features... mi sembra un concetto abbastanza chiaro... o no?

sanitarium
20-05-2004, 14:33
Originariamente inviato da Lestat.me
ma non si sta parlando della qualità del filtro e per dio!!! qua partliamo della manovra di marketing ATi al limite della correttezza!!! non può dire utilizziamo questo quando utilizza altro!!! ma per favore un po' di parzialità scusate... l'x800 è una grande schedona, nessuno può metterlo in dubbio ma quì non si parla della bontà della scheda ma delle prese in giro...
per quanto riguayrda le rece non mi pare che le 6800 in generale (ne ho lette parecchie) avesse problemi architetturali di sorta, ma una piccola perdita nell'af quando utilizzato con piueno trilinear... si è visto adesso che erano bench fatti NON a parità di features... mi sembra un concetto abbastanza chiaro... o no?

Del marketing me ne sbatto, così come me ne sono sbattuto al tempo della tanto decantata "Cinematic quality" di NV30...

IcemanX
20-05-2004, 17:38
Riporto pari pari la sezione AF della recensione di Tom's Italia sull'X800.

<<ATi ha revisionato l'implementazione dell'anisotropic filtering del suo nuovo chip. Come in precedenza, l'X800 supporta i livelli 2, 4, 8 o 16 di anisotropic filtering. In aggiunta, tramite il driver l'utente può scegliere se il chip debba applicare un filtro bilineare (Performance Mode) o trilienare (Quality Mode) alle texture. Come per la GeForce 6800 Ultra di NVIDIA, il processore ATi può usare anche modalità miste che offrono la miglior combinazione di qualità dell'immagine e prestazioni. ATi cita questa opzione nella propria documentazione ma purtroppo non ci dice in quali circostanze entra in gioco.

Citazione: "SMOOTHVISION HD anisotropic filtering supports 2, 4, 8, or 16 texture samples per pixel. Each setting can be used in a performance mode that uses bilinear samples, or a quality mode that uses trilinear samples. There is also a new capability to support intermediate modes, to help strike the ideal balance between performance and quality."

>>

Ognuno capisca quel che vuole, x quanto possa essere ridicolo inizio a pensare che la frase "ci siamo dimenticati di dirlo al marketing" non sia affatto falsa, visto che al momento della presentazione già c'era questa dichiarazione.
E' probabile anzi che gli "scienziati" di beyond3d siano proprio andati ad indagare su questo fatto, omettendo poi che sono stati proprio in ATI a dichiararlo...

IcemanX
20-05-2004, 17:39
Sorry, copia incolla venuto male...

<<
Smoothvision HD - Anisotropic Filtering

ATi ha revisionato l'implementazione dell'anisotropic filtering del suo nuovo chip. Come in precedenza, l'X800 supporta i livelli 2, 4, 8 o 16 di anisotropic filtering. In aggiunta, tramite il driver l'utente può scegliere se il chip debba applicare un filtro bilineare (Performance Mode) o trilienare (Quality Mode) alle texture. Come per la GeForce 6800 Ultra di NVIDIA, il processore ATi può usare anche modalità miste che offrono la miglior combinazione di qualità dell'immagine e prestazioni. ATi cita questa opzione nella propria documentazione ma purtroppo non ci dice in quali circostanze entra in gioco.

Citazione: "SMOOTHVISION HD anisotropic filtering supports 2, 4, 8, or 16 texture samples per pixel. Each setting can be used in a performance mode that uses bilinear samples, or a quality mode that uses trilinear samples. There is also a new capability to support intermediate modes, to help strike the ideal balance between performance and quality."

>>

MaBru
20-05-2004, 18:47
http://www.beyond3d.com/forum/viewtopic.php?t=12594

sanitarium
20-05-2004, 19:39
Originariamente inviato da sanitarium
Potresti riportarmi i link di questi thread?

Rinnovo la mia richiesta.

Raven
20-05-2004, 19:45
Originariamente inviato da Black87
sto riguardando dei thread riguardo il filtro bRilineare di nvidia quando era utilizzato. Oggi le stesse persone che ora esaltano la bontà del filtro ATi erano le più accanite contro nvidia. Fantastico :D

Giro la questione:
Oggi le stesse persone che ora attaccano il filtro ATi erano le più accanite a difendere l'archietettura nvidia.
Fantastico :D


Come vedi ha una sua logica anche così!... ;)

DjLode
20-05-2004, 20:24
Originariamente inviato da Raven
Giro la questione:
Oggi le stesse persone che ora attaccano il filtro ATi erano le più accanite a difendere l'archietettura nvidia.
Fantastico :D


Come vedi ha una sua logica anche così!... ;)

L'ho detto prima io, edita ho il copyright :)


X Lestat.me

Sei inorridito alla stessa maniera quando Nvidia ha introdotto il rimpiazzamento degli shaders e alcuni gli ha scalati a 16 bit senza direi niente a nessuno? E' una domanda, rispondi bene :)

Raven
20-05-2004, 20:38
Originariamente inviato da DjLode
L'ho detto prima io, edita ho il copyright :)



... mi ero perso il tuo post... :O

:p

Black87
20-05-2004, 22:34
Raven hai ragione io per primo difendevo l'architettura nvidia. Stupidamente. ai tempi di 5x00 era ati la leader nel campo e nvidia faceva di tutto per truccare i risultati a danno di noi acquirenti. Sta di fatto che considerata la situazione il confronto dei due chip mi dispiace dirlo ma vede vincere nvidia dato che ciò che quella percentuale in + che si prende ati è ottenuta grazie ad un filtro che non è ibrido ma a volte bilineare ed a volte trilineare. Se penso che c'è gente che crede che ATi si sia dimenticata di dirlo al reparto marketing :/ cavolo han l'alzaimer alla ati dato che è dai tempi della 9600 che ATi utilizza questa tecnologia. Intanto in molti dei giochi recenti il trilineare è applicato di default da qui i risultati buoni di nvidia in alcuni test ed in altri no. Quoto nonikname in tutto cmq.

Raven
20-05-2004, 22:41
Originariamente inviato da Black87
Raven hai ragione io per primo difendevo l'architettura nvidia. Stupidamente. ai tempi di 5x00 era ati la leader nel campo e nvidia faceva di tutto per truccare i risultati a danno di noi acquirenti.

/OT
Interessante notare come con l'uscita di nv40, la "vecchia architettura" sia diventata palesemente una sòla incredibile e del tutto indifendibile!... :p

Meglio tardi che mai, comunque! :D
/OT


Il fatto PER ME rimane questo:
- se un algoritmo modificato mi aumenta i frame ma cala la qualità---> CHEAT
- se un algoritmo modificato mi aumenta i frame ma mi mantiene inalterata la qualità percepita ---> OTTIMIZZAZIONE

Questo non toglie il fatto che Ati poteva dirlo...

Black87
20-05-2004, 22:42
Poi una domanda aperta sia a Raven che a Sanitarium. Se escludete la balla del brevetto, xkè è una balla e non ci sono dubbi dato che è appunto dai tempi della 9600 che abbiamo sto algoritmo e la ati se l'algoritmo è buono come dice lo avrebbe brevettato da tempo, mi spiegate perchè ha aspettato che noi utenti lo venissimo a scoprire da soli? una specie di caccia al tesoro? perchè è una tecnologia aliena? ma non puzza anche a voi o fate finta che non vi puzzi la questione?

Raven
20-05-2004, 22:46
Originariamente inviato da Black87
Poi una domanda aperta sia a Raven che a Sanitarium. Se escludete la balla del brevetto, xkè è una balla e non ci sono dubbi dato che è appunto dai tempi della 9600 che abbiamo sto algoritmo e la ati se l'algoritmo è buono come dice lo avrebbe brevettato da tempo, mi spiegate perchè ha aspettato che noi utenti lo venissimo a scoprire da soli? una specie di caccia al tesoro? perchè è una tecnologia aliena? ma non puzza anche a voi o fate finta che non vi puzzi la questione?

I casi sono due:

- O voleva "fregarci tutti"... (e qui vale il detto: occhio non vede, cuore non duole...)
- O non voleva che la concorrenza copiasse la tipologia di algoritmo (cosa che nvidia ha fatto per l'AF con nv40, ad esempio...)

Black87
20-05-2004, 22:48
interessante notare come quando si leggevano notizie di nvidia che intercettava gli shader di una qualche applicazione (non intaccando la qualità dell'immagine) nei commenti della news si leggevano sfilze di "ridicolo" (giustamente dato che comunque è una presa x i fondelli) oppure "cosa c'è di nuovo?" etc. Ora invece si scopre che settando le prestazioni su performance per le schede ati le performance calano sino al 30% e siam tutti allegri qui a difendere l'architettura ATi. Raga aprite gli occhizzzz

Black87
20-05-2004, 22:50
Raven mettiamo che sia il caso 2. Perchè non brevettare tutto prima dato che questa fantomatica tecnologia si usa dai tempi di 9600?

Raven
20-05-2004, 22:54
Originariamente inviato da Black87
interessante notare come quando si leggevano notizie di nvidia che intercettava gli shader di una qualche applicazione (non intaccando la qualità dell'immagine) nei commenti della news si leggevano sfilze di "ridicolo" (giustamente dato che comunque è una presa x i fondelli) oppure "cosa c'è di nuovo?"


Solitamente in questi casi la qualità ne risentiva parecchio... o lo vorresti forse negare?! :rolleyes:

Originariamente inviato da Black87
Raven mettiamo che sia il caso 2. Perchè non brevettare tutto prima dato che questa fantomatica tecnologia si usa dai tempi di 9600?

Perché non credo che una cosa del genere sia brevettabile! Non è un nuovo filtro proprietario di Ati... è semplicemente una metodologia di applicazione di filtri già esistenti... un po' come l'AF non applicato sulle pareti oblique... Ati lo ha fatto per prima ("scaaaaaandalo!", urlavano i faboys nvidia). Ora che anche lei lo fa: va tutto beeeeeene!...
Scommetto che "magicamente" un algoritmo adattivo (invece che fisso) comparirà anche su nvidia, fra un po'! ;)

Black87
20-05-2004, 22:59
Raven allora perchè la ATi ha detto che questo algoritmo è patent pending? un'altra bufala? è lì nella news. Patent pending vuol dire: in attesa di brevetto.

Raven
20-05-2004, 23:03
Originariamente inviato da Black87
Raven allora perchè la ATi ha detto che questo algoritmo è patent pending? un'altra bufala? è lì nella news. Patent pending vuol dire: in attesa di brevetto.


aaaaah beh... allora non lo so! :sofico:

Può essere benissimo che (essendo messa alle strette) stia cercando di "correre ai ripari" disperatamente... :p

In ogni caso, ripeto, per me è tutto un NON-problema... poi... fate vobis! ;)

Black87
20-05-2004, 23:05
Raven la qualità ne risentiva quando ad esempio NVidia dava istruzioni come: niente fumo là etc... non quando i giochi venivano ottimizzati ad hoc come accadeva spesso. In entrambi i casi nvidia era colpevole. Cmq sia chiaro: io per ora non sto criticando il filtro in se dato che comunque ne so ben poco, nei prossimi giorni forse verremo illuminati ma nell'attesa sto manifestando le mie perplessità date appunto dai motivi di cui sopra.

sanitarium
20-05-2004, 23:11
Black87: anziché chiacchierare tanto, perché non mi posti i link che ti ho chiesto?

Black87
20-05-2004, 23:13
sanitarium nn fà il perri meson con me :D . Fai una ricerca nel forum con keyword tipo nvidia cheating o simili e ne trovi di tutti i colori. Comunque non accusavo te però non puoi negare che c'è molta gente che criticava nvidia quando ottimizzava ad hoc anche nei casi in cui si perdesse la qualità.

sanitarium
20-05-2004, 23:21
Originariamente inviato da Black87
sanitarium nn fà il perri meson con me :D . Fai una ricerca nel forum con keyword tipo nvidia cheating o simili e ne trovi di tutti i colori. Comunque non accusavo te però non puoi negare che c'è molta gente che criticava nvidia quando ottimizzava ad hoc anche nei casi in cui si perdesse la qualità.

Mi sa che ti sei salvato in corner con la storia dei thread... :rolleyes: :D


Torniamo seri: sai quando va criticata una Casa che produce schede video?
1- Quando propone dei prodotti scadenti.
2- Quando i suoi prodotti vengono fatti funzionare tramite driver e algoritmi che provocano perdite di qualità visibili pur di ottenere qualche manciata di frame in più.

In questo caso, fino a prova contraria, ciò non accade, poiché l'algoritmo che gestisce il filtro anisotropico garantisce una qualità a vista d'occhio pari a quando viene applicato un filtro trilineare puro (cosa che NON avviene con il filtro "brilineare" di NVidia).

Ergo, da parte mia niente da ridire. Come ho già detto, a noi utenti finali interessa la QUALITA', e il modo in cui questa viene ottenuta non è assolutamente affar nostro.
Oppure voi comprate le schede video a seconda delle sparate che fanno i reparti marketing di ATi e NVidia?

^TiGeRShArK^
21-05-2004, 00:19
ma la cosa bella è ke dicono di rifare i bench.....:muro: :muro: :muro:
a proposito di qualità dell'anisotropico, voi paladini di nvidia, provate a rileggervi quest'estratto dell'articolo di hwupgrade:

"l'ottimizzazione trilineare è un'opzione che ha influenza solo in ambiente OpenGL. Anche disattivandola, in Direct 3D la resa non subisce cambiamenti e ripropone il brilinear filtering."

quindi mi spiegate perchè si dovrebbero rifare i bench???
i bench in direct3d sono stati fatti ovviamente con l'ottimizzazione del trilineare x la 6800 (ke tra l'altro ha una qualità peggiore della modalità di ATI) e la 6800 le prendeva sonoramente....
Se ATI ha fatto un algoritmo ke riesce ad avere una qualità migliore e delle prestazioni migliori della controparte ben venga....
tanto oramai gli utenti nvidia si saranno abituati x quanto riguarda il discorso qualità.....

Prima di rispondere, dimmi DOVE è mai possibile vedere la seppur minima differenza di qualità tra anisotropico della 9800 e della x800 .... e ti invito invece a confrontare gli screen di una 5950 ultra rispetto ad una 6800 .....
Giustamente nvidia insegue solo le prestazioni e se ne frega se i suoi acquirenti usufruiscono di una qualità minore x 10 fps in +

cdimauro
21-05-2004, 06:45
Originariamente inviato da Black87
Poi una domanda aperta sia a Raven che a Sanitarium. Se escludete la balla del brevetto, xkè è una balla e non ci sono dubbi dato che è appunto dai tempi della 9600 che abbiamo sto algoritmo e la ati se l'algoritmo è buono come dice lo avrebbe brevettato da tempo, mi spiegate perchè ha aspettato che noi utenti lo venissimo a scoprire da soli? una specie di caccia al tesoro? perchè è una tecnologia aliena? ma non puzza anche a voi o fate finta che non vi puzzi la questione?
Quella del brevetto non è una balla: una grossa azienda come Ati, nel momento in cui sviluppa un'idea innovativa, si trova di fronte alle seguenti possibilità:

1) Richiede il brevetto, che verrà approvato dopo un bel po' di tempo (da cui il "patent pending": si aspetta, appunto, che l'ufficio brevetti lo rilasci, e generalmente passa qualche anno)

2) Non richiede il brevetto, perché ritiene l'idea non meritevole, oppure perché è talmente complessa che un reverse engineer dall'analisi del chip non riescirebbe comunque a capire come funziona e a ricostruire l'algoritmo su cui si basa.

Generalmente si preferisce brevettare, anche perché si acquisisce un notevole prestigio, e quindi un maggior "peso" nella scena internazionale. Ati, infatti, ha deciso di brevettare questa nuova tecnologia, ma sta ancora aspettando il rilascio del brevetto. Molto probabilmente aveva richiesto il brevetto da ben prima del disegno della GPU della 9600: difatti quando lo staff della sezione ricerca e sviluppo ha completato e verificato il funzionamento dell'algoritmo, viene richiesto il brevetto; POI si passa l'algoritmo allo staff che si occupa di "tradurlo" in un circuito.

cdimauro
21-05-2004, 06:56
Per quanto riguarda l'oggetto del thread, aggiungo una cosa: se vogliamo testare le applicazioni/giochi con la massima qualità, facciamolo pure, ma decidiamo i parametri. Per me massima qualità vuol dire non solo utilizzare sempre il filtro trilineare, ma anche gli FP32 per gli shader, e un antialiasing di pari qualità, tanto per fare qualche esempio (non è che settando il filtro a 4X, per due GPU diverse ottengo risultati simili).
Oltre a ciò, Ati ha proposto una nuova tecnologia, il TAA, che richiede meno in termini prestazionali con la maggioranza delle applicazioni, ma qualitativamente identico a un AA "superiore" (2X -> 4X): che fare in questi casi?
Infine, l'approssimazione nel campo della grafica (ma anche in altri) è cosa comune: pensate che l'estrazione della radice quadrata, del seno, coseno, logaritmo, esponenziale, ecc. venga realizzata sempre allo stesso modo, e offra sempre la medesima approssimazione a parità di bit utilizzati per la mantissa? Pura illusione. ;) Allo stesso modo esistono algoritmi che approssimano ottimamente il risultato finale di una funzione, come in questo caso. E proprio perché, generalmente, la rappresentazione della funzione non è esatta, ma un algoritmo deve tirare fuori dei valori che si avvicinino al risultato teorico.

Penso che sia inutile scannarci o rinvangare vendette sopite nel tempo per queste cose... :rolleyes:

DjLode
21-05-2004, 11:05
Originariamente inviato da Black87
Poi una domanda aperta sia a Raven che a Sanitarium. Se escludete la balla del brevetto, xkè è una balla e non ci sono dubbi dato che è appunto dai tempi della 9600 che abbiamo sto algoritmo e la ati se l'algoritmo è buono come dice lo avrebbe brevettato da tempo, mi spiegate perchè ha aspettato che noi utenti lo venissimo a scoprire da soli? una specie di caccia al tesoro? perchè è una tecnologia aliena? ma non puzza anche a voi o fate finta che non vi puzzi la questione?

Ti faccio una ulteriore domanda, visto che tale algoritmo è presente pure sulla 9600, mi dici perchè nessuno se ne è accorto? Forse perchè le immagini sono talmente identiche da essere indistinguibili ad occhio nudo? A te questa questione, il polverone sollevato ora che la X800 pur non essendo così innovativa come Nv40 a livello tecnico si presenta cmq molto veloce, in alcuni casi nettamente più veloce, non puzza affato?

Black87
21-05-2004, 11:33
bah NETTAMENTE più veloce non mi sembra proprio, in alcuni casi abbiamo un massimo di 5 fps di distanza eh quindi non esageriamo. DjLode comunque vorrei invitarti, invece che rispondere in modo affrettato, a rileggere i miei post precedenti. Ho detto e ribadito che se è effettivamente come dite voi riguardo al filtro allora sì è una innovazione. Ho detto e ribadito che ci sono cose che comunque vanno corrette dato che a questo punto i confronti diventano impari. I confronti sono impari. Poi cos'è questa storia dei brevetti? ci vogliono anni prima che l'ufficio brevetti rilasci un brevetto? :sofico: ma dai state a credere alle cose che dice ati per pararsi il c**o :D

DjLode
21-05-2004, 11:37
Originariamente inviato da Black87
bah NETTAMENTE più veloce non mi sembra proprio, in alcuni casi abbiamo un massimo di 5 fps di distanza eh quindi non esageriamo


Ma leggi solo quelle che pare a te? A determinate risoluzioni con i filtri ci sono differenze stratosferiche.


. DjLode comunque vorrei invitarti, invece che rispondere in modo affrettato, a rileggere i miei post precedenti

Continui a non rispondere...

P V
21-05-2004, 11:38
Scusatemi ma vorrei sottolineare una volta per tutte una cosa: una scheda elettronica qualunque e' formata da DUE parti inscindibili, l'hardware che fa il lavoro e il software che gli dice come farlo. Dire la scheda X e' meglio della scheda Y perche' esegue 1.000.000 di operazioni al secondo mentre la scheda Y ne fa solo 800.000 e' sbagliato. Se io che ho sviluppato la scheda Y l'ho pensata in modo tale che facendo 800.000 operazioni riesco ad ottenere un risultato migliore rispetto a quello che puo' fare la scheda X con 1.000.000 ho prodotto io la scheda migliore.
A questo punto il discorso deve essere posto in questi termini: la feature introdotta da ATI e' un trucco o e' veramente qualche cosa che permette alla loro scheda di fare un lavoro migliore con un numero di operazioni inferiore? A che serve forzare il filtro Trilineare se poi la qualita' dell'immagine non ne risente? IMHO serve solo a dire "la mia scheda fa 1.000.000 di operazioni al secondo e la tua 800.000 " ma la scheda migliore resta la seconda. Se poi il produttore della scheda X sara' in grado di cambiare l'intelligenza sulla sua scheda allora le cose cambieranno ma al momento la situazione e' questa.
Se la qualita' dell'immagine non ne risente fare i test disabilitando questa feature con tools esterni sarebbe come dire "Io ho una macchina che puo' diminuire l'inclinazione degli alettoni per farmi andare piu' forte in dirittura ma nei test comparativi con un'altra macchina disabilito questa possibilita' perche' sono masochista". Se invece questa feature non funziona e alla prima curva mi fa andare fuori strada il discorso si ribalta e si parla di trucco per far credere che la macchina sia piu' veloce mentre non lo e'.
Scusatemi per la lunghezza del post ma secondo me il discorso e' solo questo.

sanitarium
21-05-2004, 11:40
Originariamente inviato da Black87
bah NETTAMENTE più veloce non mi sembra proprio, in alcuni casi abbiamo un massimo di 5 fps di distanza eh quindi non esageriamo. DjLode comunque vorrei invitarti, invece che rispondere in modo affrettato, a rileggere i miei post precedenti. Ho detto e ribadito che se è effettivamente come dite voi riguardo al filtro allora sì è una innovazione. Ho detto e ribadito che ci sono cose che comunque vanno corrette dato che a questo punto i confronti diventano impari. I confronti sono impari. Poi cos'è questa storia dei brevetti? ci vogliono anni prima che l'ufficio brevetti rilasci un brevetto? :sofico: ma dai state a credere alle cose che dice ati per pararsi il c**o :D

Toh va', fatti una cultura...

http://www.xbitlabs.com/articles/video/display/r420-2_17.html

E smettila di usare toni da saccentone, cdimauro ne sa sicuramente più di te a proposito dei brevetti (e di tante altre cose)...

EDIT: Notare che i test della recensione linkata sono stati eseguiti anche con il filtro "brilineare" di NVidia, cosa che comunque non le permette di passare avanti alla X800XT...

^TiGeRShArK^
21-05-2004, 12:21
un distacco di max 5 fps???
prova un pò a rileggerti la recensione di farcry (unico gioco attuale abbastanza rappresentativo dei giochi futuri) di questo sito e forse scoprirai ke a parità di qualità (quindi forzando gli FP32 x non avere una qualità abominevole) la 6800 ultra extreme (ke qualcosa mi dice ke non vedremo sugli scaffali) in certe situazioni subisce un distacco di 10 frame anche rispetto alla x800 PRO.
Dimenticavo ke ovviamente in questa situazione la skeda nvidia utilizza il filtraggio BRILINEAR SEMPRE, mentre l'x800 utilizza il tanto criticato trilineare adattativo (e non ho capito ancora su cosa si basano queste critiche ... sarà ke va di moda attaccarsi ad ogni piccolezza x cercare in ogni modo di spalare merxx su ATI....) che offre una qualità superiore al brilinear di nvidia....
E non oso pensare cosa accadrà con i gioki futuri ke utilizzeranno sempre + pesantemente gli shader 2.0.
Se vuoi continuare a difendere spudoratamente a spada tratta nvidia fai pure, ma sappi ke stai facendo solo la figura di :mc:

Black87
21-05-2004, 12:30
sanitarium ma lì non sono state tolte le ottimizzazioni di ati cioè quel test mi vale pochissimo. Cdimauro ne saprà più di me ma mi pare inverosimile che per rilasciare brevetti su una determinata tecnologia ci voglia così tanto tempo... se fosse così allora tutte le compagnie software per brevettare engine dovrebbero aspettare taaanto, taaaanto tempo. Aggiungici la realizzazione del gioco etc e praticamente per ogni gioco che viene programmato dovremmo aspettare un minimo di 5 anni. Unreal 2 ad esempio è stato creato in 3 anni se non sbaglio, forse anche meno anzi mi pare 2 anni: volete dire che han progettato l'engine in un mese poi il gioco il mese successivo poi han dato tutto all'ufficio brevetti ed hanno aspettato i restanti due anni. Non è così ed appena trovo il tempo per informarmi lo dimostro. Sanitarium tra parentesi: se io la devo smettere di utilizzare toni da saccentone ti invito a smetterla di utilizzare toni aggressivi, cosa che io non sto affatto facendo.

x djlode

forse non mi sono spiegato bene oppure sei tu che ti ostini a leggere quello che vuoi: non ho mai criticato il filtro in sè, se è una tecnologia che porta solo benefici benvenga e penso di essere stato chiaro una volta per tutte.

sanitarium
21-05-2004, 12:50
Originariamente inviato da Black87
sanitarium ma lì non sono state tolte le ottimizzazioni di ati cioè quel test mi vale pochissimo. Cdimauro ne saprà più di me ma mi pare inverosimile che per rilasciare brevetti su una determinata tecnologia ci voglia così tanto tempo... se fosse così allora tutte le compagnie software per brevettare engine dovrebbero aspettare taaanto, taaaanto tempo. Aggiungici la realizzazione del gioco etc e praticamente per ogni gioco che viene programmato dovremmo aspettare un minimo di 5 anni. Unreal 2 ad esempio è stato creato in 3 anni se non sbaglio, forse anche meno anzi mi pare 2 anni: volete dire che han progettato l'engine in un mese poi il gioco il mese successivo poi han dato tutto all'ufficio brevetti ed hanno aspettato i restanti due anni. Non è così ed appena trovo il tempo per informarmi lo dimostro. Sanitarium tra parentesi: se io la devo smettere di utilizzare toni da saccentone ti invito a smetterla di utilizzare toni aggressivi, cosa che io non sto affatto facendo.

Quei test sono validissimi, perché:
1- La qualità del filtro anisotropico adattivo di ATi è pari a quella offerta dal filtro esclusivamente trilineare di NVidia, quindi non ci sono chiacchiere che tengano.
2- Avevate chiesto che venissero condotti dei test che vedessero "brilineare" di NVidia vs trilineare adattivo di ATi (quello che voi chiamate "brilineare", ma che non lo è), e nella pagina che ti ho riportato questi confronti ci sono: il risultato è che nonostante la 6900ultra utilizzi l'AF brilineare, la X800XT continua a stare saldamente avanti, nonostante con questi settaggi la qualità di R420 sia superiore a quella di NV40.

Ciò significa che: continuare a criticare questo tipo di AF è inutile e illogico, sia dal lato pratico, sia da quello del marketing (pura e semplice arrampicata sugli specchi quest'ultima lamentela).

DjLode
21-05-2004, 13:19
Originariamente inviato da Black87
x djlode

forse non mi sono spiegato bene oppure sei tu che ti ostini a leggere quello che vuoi: non ho mai criticato il filtro in sè, se è una tecnologia che porta solo benefici benvenga e penso di essere stato chiaro una volta per tutte.

Io infatti ti ho chiesto perchè essendo lì dai tempi della 9600 nessuno se ne è accorto ma salta fuori adesso con una X800 che risulta nei giochi attuali velocissima con i filtri (e non ditemi che i filtri sono inutili ora :))... Cosa significa la spiegazione di cui sopra? Visto che non ti ho chiesto niente riguardo al filtro ma riguardo all'etica di alcuni siti di "scoprire" determinate cose solo quando fa comodo al loro scopo.

Black87
21-05-2004, 15:59
Djlode ma cosa ne sai tu di cosa faceva comodo a quel sito là? Avresti preferito non venirlo a sapere?
mah :D

psychok9
21-05-2004, 16:36
Abbiamo scoperto che attraverso una tecnologia esclusiva di ATi, riusciamo ad avere la qualità del trilinear, con performance superiori... bene...!
che c'avete da dire?! :muro:
Da paura paragonare il cheating di nVidia con "l'ingegno"...
Con questo non voglio dire che il cheating ad ATi è permesso, ma che semplicemenente non lo è, ed è palese...

nonikname
21-05-2004, 19:33
Ricordo un piccolo particolare :

Il succo della discussione è questo :

http://www.computerbase.de/picture/news/7748/1.jpg

http://www.computerbase.de/picture/news/7748/4.jpg

Noi , ATI , non abbiamo bisogno di escogitare trucchetti per ridurre il carico di lavoro della gpu : la nostra X800 esegue il trilineare sempre alla massima qualità (di default!!)


E da qui non si scappa : che sia da brevettare , che si siano dimenticati di dirlo fino ad oggi o che abbiano avuto problemi familiari è tutta una presa per il culo !!!!!!

Edit

Non bisogna continuare a contarcela sulla bontà del filtro o sulla potenza della scheda , se nessuno li scopriva , questo algoritmo sarebbe restato nascosto fino alla morte della scheda


In questi (http://www.xbitlabs.com/articles/video/display/r420-2_17.html) test , le GPU ATI non sono mai state provate con il trilineare puro , sia con o senza filtri !!!!

Potevano anche dire che la loro scheda è DX9c , tanto mancano solo alcune feature!!!

Sentite tech report: "However, we can't ignore the new information, and we'll have to take it into account more fully in the future. Truth is, both ATI and NVIDIA have new algorithms for both trilinear and anisotropic filtering in these new cards, and we are still trying to get a read on how things have changed. NVIDIA's new isotropic filtering algorithm appears to be superior to most all of the competing ones in terms of coverage at multiple angles. ATI's adaptive trilinear appears to be damn near impossible to catch with the naked eye. NVIDIA's brilinear is less so, but not by much. You can see comparative IQ, sans colored mip maps, right here and judge for yourself. You can also see how NVIDIA's various IQ settings affect performance on this page if you want to see the sorts of speed gains that are at stake generally here; we tested three different NVIDIA filtering settings. We'll keep an eye on these things and likely retest performance and IQ as the GeForce 6800 approaches stores shelves or shortly after it arrives.

A me , come a molti altri siti , continua a non sembrare una mossa lecita.......

sanitarium
21-05-2004, 20:56
Si nonikname, ricorda pure il succo della questione tutte le volte che vuoi; io nel frattempo ti ricordo un altro piccolo particolare: a noi utenti finali interessa che le schede pagate fior di quattrini ci garantiscano prestazioni eccellenti e un'ottima qualità, fregandocene di come le varie Case ottengano questo obiettivo.
Da appassionato sono interessato al funzionamento dell'algoritmo adattivo di ATi, e vorrei saperne di più (entro i limiti del possibile, ovviamente, non sbandiereranno mai completamente il modo in cui lavora il loro algoritmo), ma preso per il culo non mi ci sento e non mi ci sentirò mai per il fatto che ATi non ha detto da subito del comportamento dell'AF di R420. Mi spiace che non ne abbia parlato da subito, ma da qui a inveire e sentirmi preso per il culo ce ne passa...

Se questo algoritmo non lo scopriva nessuno, pazienza, l'importante è scoprire i trucchi e le ottimizzazioni illecite, non anche quelle lecite che permettono di conservare intatta la qualità visiva innalzando le prestazioni.

Ho letto l'estratto di techreport che hai scritto nel tuo precedente post, e a me quello che interessa particolarmente è questo: ATI's adaptive trilinear appears to be damn near impossible to catch with the naked eye. NVIDIA's brilinear is less so, but not by much.
Quindi, vuoi o non vuoi, il "brilineare" di NV40 è qualitativamente inferiore al filtro adattivo di ATi, il quale invece ad occhio nudo non permette di vedere cali qualitativi di sorta.

Vogliamo, già che ci siamo, parlare ancora di disonestà? Ok.
NVidia non ha MAI segnalato nelle note ai recensori che NV40 applica un AF "brilineare" di default quando si attiva la modalità "qualità" e addirittura anche quando sia attiva la modalità "alta qualità": come mai nessuno di voi paladini dell'onestà è insorto nei confronti di questa grave omissione? Non era forse questo un tentativo di nascondere le proprie ottimizzazioni, nella speranza che nessuno se ne accorgesse?
Con i Forceware 61.xx è arrivata l'opzione per abilitare un AF esclusivamente trilineare, ma solo per mettere a tacere le nascenti polemiche a proposito dell'IQ.
A questo punto ti rigiro la riflessione che tu hai fatto a proposito dell'AF di R420: "se nessuno li scopriva , questo algoritmo sarebbe restato nascosto fino alla morte della scheda". Giusto o no?
Allora, come mai non siete rimasti scandalizzati da questo comportamento di NVidia?


EDIT: Ho apportato alcune modifiche al messaggio, dopo aver riguardato un paio di articoli...

DjLode
21-05-2004, 21:17
Nvidia aveva detto alla presentazione di NV3x che ci voleva una path apposita e un compilatore on the fly per far girare decentemente gli shaders? No. Eppure nessuna ha fatto tutto sto casino quando queste cose sono state inserite nei giochi e nei driver.

Riguardo alle slides, c'è scritto "ridurre il trilineare a bilineare", ok non mi pare lo faccia sempre no? Non c'è scritto vietato in ogni occasione farlo. E quindi la prima slide è veritiera.
La seconda cosa dice? Di sicuro non ci leggo che "X800 applica sempre e comunque trilineare pure", ma forse sono cecato.
Possiamo interpretare le slides in quel modo ma il fatto è che quella frase non c'è scritta. In nessuna delle due.

nonikname
22-05-2004, 00:43
Ho parlato di Nvidia???????


Qui si sta discutendo di cosa ha combinato ati e non cosa Nvidia faceva: se vuoi spostare il discorso , fallo pure (O.T.) , ma ricorda che l'argomento è ATI e il trilinear filter...
A me non andava giu l'ottimizzazione in 3dmark di Nvidia come non mi va bene che ATI menta sulle specifiche , anzi , nelle linee guida della sua presentazione , ha preso per il culo NVIDIA per l'algoritmo che riduce il carico della GPU , sapendo bene che lei lo stava gia facendo da un anno!!!!

Non sono l'unico a pensarla così ci sono molti siti che sono rimasti costernati per il fatto che la più "onesta" Marca di GPU ricorre a questi mezzucci per fare bella figura :

3DGPU

RECENT REVELATIONS ABOUT the trilinear filtering techniques ATI has used in its more recent graphics chips, including the X800 series, have been something of a shock. The reason it came as a shock isn't because we've now learned that ATI is using an adaptive algorithm to reduce its graphics workload. Such algorithms make sense, done properly, so they don't harm image quality. Indeed, the essence of graphics is creating an illusion as effectively as possible, and shortcuts are big part of that enterprise.
The shock comes because ATI has consistently touted its own texture filtering techniques as superior to the competition's, talking down the so-called "brilinear" filtering algorithim used by NVIDIA and encouraging use of tools for IQ analysis that don't show the effects of ATI's method.

The conclusion of the story says it all:
Whatever the merits of ATI's adaptive trilinear filtering algorithm, ATI appears to have intentionally deceived members of the press, and by extension, the public, by claiming to use "full" trilinear filtering "all of the time" and recommending the use of colored mip map tools in order to verify this claim. Encouraging reviewers to make comparisons to NVIDIA products with NVIDIA's similar trilinear optimizations turned off compounded the offense. Any points ATI has scored on NVIDIA over the past couple of years as NVIDIA has been caught in driver "optimizations" and the like are, in my book, wiped out.
The disappointing thing to me is that these companies are not being forthright when introducing their products. Regardless of the relative benefit of their decisions technically, not being transparent makes it look like they've got something to hide.

Bottom line - today's customers are tired of feeling like they're being tricked, and that's something that both of the heavyweights would do well to pick up on.

Nel Case ho una X800pro : gran bella sheda e lungi da me criticarne l'HW , ma la mia critica va all'ipocrisia vista nella presentazione ....

Per favore , non cambiare discorso o non parlare di NVIDIA che ha fatto questo o quello : non mi sembra lecito scusare una Marca che mente sulle specifiche solo perchè un'altra ha truccato i bench!!! ;)

cdimauro
22-05-2004, 07:41
Originariamente inviato da Black87
sanitarium ma lì non sono state tolte le ottimizzazioni di ati cioè quel test mi vale pochissimo. Cdimauro ne saprà più di me ma mi pare inverosimile che per rilasciare brevetti su una determinata tecnologia ci voglia così tanto tempo... se fosse così allora tutte le compagnie software per brevettare engine dovrebbero aspettare taaanto, taaaanto tempo. Aggiungici la realizzazione del gioco etc e praticamente per ogni gioco che viene programmato dovremmo aspettare un minimo di 5 anni. Unreal 2 ad esempio è stato creato in 3 anni se non sbaglio, forse anche meno anzi mi pare 2 anni: volete dire che han progettato l'engine in un mese poi il gioco il mese successivo poi han dato tutto all'ufficio brevetti ed hanno aspettato i restanti due anni. Non è così ed appena trovo il tempo per informarmi lo dimostro.
Fai pure. Intanto tu parli di brevetti ed è chiaro anche in questo messaggio che NON NE SAI NULLA.
Io in questo momento sto lavorando ad un progetto (per la mia tesi di laurea) per conto di una grossa multinazionale, nel gruppo di ricerca & sviluppo del settore elaborazione delle immagini. Quindi QUALCOSINA sui brevetti e sulle varie politiche seguite dall'azienda certamente la conosco. E a maggior ragione, poiché si sta valutando se brevettare o meno un algoritmo che ho realizzato.
Invece di parlare a vanvera, senza sapere niente e soprattutto criticare quanto scritto da altri, PERCHE' NON TI INFORMAVI PRIMA? Poi ti secchi se ti viene dato del saccente... :rolleyes:

Quanto ai tempi: è così, si parla di qualche anno. NON E' UN CASO SE MOLTE VOLTE TROVI SCRITTO "PATENT PENDING". :rolleyes:

Infine, aggiungo che non vengono certamente brevettati interi engine: soltanto le idee/algoritmi INNOVATIVE, che eventualmente sono state pensate e/o utilizzate in essi.

Fatti, non parole. :rolleyes: :muro:

sanitarium
22-05-2004, 11:13
nonik, io non ho tentato di andare OT con la storia di NVidia, ne ho voluto giustificare ATi incolpando di altro NVidia, ma ho solo cercato di capire (senza esservi ancora riuscito) come mai vi state accanendo tanto contro la "falsità" di ATi e come mai invece non avete detto nulla di nulla a proposito del sotterfugio del "brilineare" di NVidia. Mi sembra legittimo cercare di capirlo, ma evidentemente non ho diritto ad una risposta: pazienza.

Vuoi continuare a parlare delle slide di ATi? Ok.
Quell'estratto di 3DGPU l'ho letto ieri sera, dopodiché sono arrivato ad una riflessione: ATi ha fatto una cazzata.
Ha sbagliato nell'essere poco chiara (bada bene: NON ha mentito, è stata poco chiara) in quello che ha scritto nelle slide che tu riporti nei tuoi messaggi, perché non ha specificato in quali condizioni si avvera ciò che sta scritto.

Quei famosi unacceptable filtering "tricks" that reduce the amount of work done non sono riferiti alla totalità delle situazioni, ma sono riferiti al fatto che nel caso in cui la transizione fra una mipmap e l'altra fosse alquanto drastica, e ci fosse quindi necessità di adottare un filtro trilineare puro per rendere la giusta qualità su schermo, l'algoritmo di ATi E' in grado di applicare il suddetto filtro integralmente trilineare (e sfido a dimostrare il contrario), mentre l'AF di NVidia continuerebbe ad essere brilineare, con la conseguenza che per quest'ultima performance goes up (not as much work to do) but not desirable from a quality standpoint.
Ecco da dove nasce l'attacco e la presa per i fondelli alla concorrenza: il filtro di ATi è NATIVAMENTE TRILINEARE e scala al bilineare QUANDO POSSIBILE (= niente difetti grafici), mentre il filtro "brilineare" di NVidia è in piccola parte trilineare, ed è bilineare nella maggior parte della scena visualizzata (senza possibilità di adattamenti che garantiscano comunque la massima qualità possibile).
Qui non si tratta aver mentito (perché l'AF di R420 infatti è trilineare, e scala al bilineare quando non c'è perdita di qualità - niente trucchetti, quindi), ma di aver generalizzato erroneamente nel parlare di ciò di cui è capace il proprio filtro anisotropico quando si parla di qualità massima, senza invece menzionare ciò che fa l'algoritmo in situazioni che non richiedono per forza l'uso del filtro trilineare puro (ecco quella che per me è stata la cazzata fatta da ATi).

E le mipmap colorate, che si voglia ammettere o no, danno ragione ad ATi, perché il suo AF RIMANE (non diviene, ma rimane) completamente trilineare, mentre quello della concorrenza rimane "brilineare", con una differenza qualitativa molto netta. Per la serie: "Se vi doveste trovare in una situazione reale di gioco simile a questa, noi siamo in grado di garantirvi la massima qualità possibile (perché il filtro in quel caso NON scalerebbe da trilineare a bilineare - reduce trilinear to bilinear filter), mentre la concorrenza grazie ai suoi trucchetti non è in grado di andare oltre la qualità offerta dal brilineare".

Sarei TANTO curioso comunque di sapere quale slide era presente prima di quella intitolata "What can be done?"... :rolleyes:
Stranamente non viene mai riportata...

DjLode
22-05-2004, 13:12
Originariamente inviato da nonikname
Ho parlato di Nvidia???????


Ho detto il contrario? Se hai la coda di paglia la colpa non è mia :)
La risposta era per :
"x djlode

forse non mi sono spiegato bene oppure sei tu che ti ostini a leggere quello che vuoi: non ho mai criticato il filtro in sè, se è una tecnologia che porta solo benefici benvenga e penso di essere stato chiaro una volta per tutte."

E quindi la cosa c'entra. Se poi tu ti senti chiamato in causa la colpa non è mia, avendo pure diviso in due il post.


Qui si sta discutendo di cosa ha combinato ati e non cosa Nvidia faceva: se vuoi spostare il discorso , fallo pure (O.T.) , ma ricorda che l'argomento è ATI e il trilinear filter...
A me non andava giu l'ottimizzazione in 3dmark di Nvidia come non mi va bene che ATI menta sulle specifiche , anzi , nelle linee guida della sua presentazione , ha preso per il culo NVIDIA per l'algoritmo che riduce il carico della GPU , sapendo bene che lei lo stava gia facendo da un anno!!!!

Non sono l'unico a pensarla così ci sono molti siti che sono rimasti costernati per il fatto che la più "onesta" Marca di GPU ricorre a questi mezzucci per fare bella figura :

3DGPU

RECENT REVELATIONS ABOUT the trilinear filtering techniques ATI has used in its more recent graphics chips, including the X800 series, have been something of a shock. The reason it came as a shock isn't because we've now learned that ATI is using an adaptive algorithm to reduce its graphics workload. Such algorithms make sense, done properly, so they don't harm image quality. Indeed, the essence of graphics is creating an illusion as effectively as possible, and shortcuts are big part of that enterprise.
The shock comes because ATI has consistently touted its own texture filtering techniques as superior to the competition's, talking down the so-called "brilinear" filtering algorithim used by NVIDIA and encouraging use of tools for IQ analysis that don't show the effects of ATI's method.

The conclusion of the story says it all:
Whatever the merits of ATI's adaptive trilinear filtering algorithm, ATI appears to have intentionally deceived members of the press, and by extension, the public, by claiming to use "full" trilinear filtering "all of the time" and recommending the use of colored mip map tools in order to verify this claim. Encouraging reviewers to make comparisons to NVIDIA products with NVIDIA's similar trilinear optimizations turned off compounded the offense. Any points ATI has scored on NVIDIA over the past couple of years as NVIDIA has been caught in driver "optimizations" and the like are, in my book, wiped out.
The disappointing thing to me is that these companies are not being forthright when introducing their products. Regardless of the relative benefit of their decisions technically, not being transparent makes it look like they've got something to hide.

Bottom line - today's customers are tired of feeling like they're being tricked, and that's something that both of the heavyweights would do well to pick up on.

Nel Case ho una X800pro : gran bella sheda e lungi da me criticarne l'HW , ma la mia critica va all'ipocrisia vista nella presentazione ....


Continui con la solita manfrina che "tanti siti la pensano come te". Ma continui a non far vedere dove nelle slides c'è scritto "facciamo sempre e comunque il trilinear". Mi dispiace ma tu come qui siti avete da una interpretazione ad una cosa che ha altre interpretazioni come ti ho fatto vedere. Che poi a te vada bene o meno, sinceramente lascia il tempo che trova visto che non c'è scritto quello che stai dicendo.


Per favore , non cambiare discorso o non parlare di NVIDIA che ha fatto questo o quello : non mi sembra lecito scusare una Marca che mente sulle specifiche solo perchè un'altra ha truccato i bench!!! ;)

Per favore, leggiti meglio quello che scrivo, non ci sei solo tu in questo thread e non è detto che tutto quello che uno scriva sia rivolto a te. L'ho scritto "riguardo alle slides", le slides le hai riportate tu e quindi quel pezzo era rivolto a te e non si parla di Nvidia. Mi dispiace :)

Black87
24-05-2004, 00:47
ok, ammessa la mia ignoranza in materia di brevetti vorrei comunque postare questa cosa:

Il deposito della domanda si effettua presso una qualsiasi Camera di Commercio che rilascia una copia del frontespizio sul quale appare la data ed il numero di deposito che ha una conformazione del tipo MI98A000001, dove con "MI" si indica la provincia presso la quale si è depositato il brevetto (MI per Milano, ma può essere BO per Bologna, RM per Roma, e così via), "98" indica l’anno del deposito, "A" (o "U") indica il tipo di domanda se per invenzione o per modello di utilità, ed infine "000001" indica il numero progressivo del deposito della domanda.

Da questo momento passeranno parecchi mesi (di solito 3, 4 anni) prima che la domanda di brevetto venga accolta o respinta dal Ministero e ciò determina non un periodo di inoperatività, ma certo di difficoltà nell’utilizzo della privativa. Normalmente si cedono, si danno in licenza, si producono oggetti per i quali una domanda di brevetto è pendente, ma che non sono ancora tecnicamente brevettati. In queste situazioni è bene tener conto che si può comunque agire contro un contraffattore sulla base della sola domanda di brevetto pubblica e che, nel caso in cui lo si dia in licenza, occorre inserire un’apposita clausola che eviti ogni responsabilità del licenziante nel caso in cui il brevetto non venga poi concesso. In questo periodo diventa importante farsi seguire da uno specialista della materia per tutti gli atti giuridici che ci si appresta a porre in essere, perché si cammina in un terreno molto delicato sul quale è importante sapersi muovere.

allora considerato che comunque il plagio di un qualche algoritmo patent pending può esser perseguito penalmente: cosa aveva da temere ATi per non rendere pubblico ciò che stava dando alla luce?

cdimauro
24-05-2004, 06:35
Semplicemente stava sperimentando una tecnologia: difatti l'ha implementata "in sordina" nelle 9600, ha visto che effettivamente i miglioramenti nell'uso (massiccio) quotidiano sono tangibili, e ha deciso di impiegarla anche nelle successive GPU.
Tutto questo l'ha fatto di nascosto per non dare alcun vantaggio a nVidia, che se avesse saputo della sua esistenza, si sarebbe interessata a trovare qualcosa di simile da implementare anche nelle sue future GPU, come ha fatto con l'NV40 che presenta molte soluzioni simili all'R300.

Quindi pura e semplice strategia. Difatti non è certo un caso che sia stata implementata solamente nelle schede di fascia bassa: sono quelle per cui non ci si aspetta la presenza di soluzioni "rivoluzionarie", che sono generalmente appannaggio dei prodotti di fascia alta, dove la battaglia per la palma del migliore è sempre serrata, e l'utilizzo di di algoritmi come questo possono fare la differenza.
Ati, insomma, era sicura di sé, grazie all'enorme successo dell'R300, e con le successive GPU ha cominciato a "saggiare" delle tecnologie con i modelli di fascia bassa (0,13u e questo algoritmo), per poi utilizzarli nelle GPU di successiva generazione.

IMHO, è riuscita a centrare perfettamente il suo scopo... ;)