Salve a tutti, scusate la domanda un pò beota, ma sono stato a lungo lontano dal mondo delle VGA: ora sto riprendendo contatto e mi sto aggiornando circa l'evoluzione, hardware e software, che le GPU hanno incontrato nel corso degli anni.
Sto cominciando da ATI: diciamo che ero rimasto fermo alla X1950 e mi ritrovo ora con una HD5730.
Domanda: in quale stadio di GPU e/o di driver si è perso il temporal antialiasing (e perchè, dato che era una caratteristica basata sulla programmabilità dei sampling patterns delle schede ATI, programmabilità degli algoritmi di AA che mai si è persa negli anni... anzi, è cresciuta)?
Chiedo, perchè nei legacy 10.2 per X1950 è presente, mentre nei 10.6 su HD5730 non c'è più...

... ho cercato a lungo in tante review di siti specializzati, ma questo "passaggio" non riesco proprio a rintracciarlo.
Per le altre features dovrei essere a posto (CFAA, SSAA, nuovi algoritmi di AF etc.), anche se, a onor del vero, non trovo più la possibilità di scegliere tra la modalità "veloce" (MSAA) e quella "qualità" (SSAA) circa l'adaptive antialiasing (l'equivalente del trasparent antialiasing di nVidia).
Mi sono fatto questo piccolo schemino riassuntivo, ditemi se va bene o se ci sono correzioni da apportare...
Radeon serie 9000 = DX9 SM2, MSAA6X, temporal AA, adaptiveAA, AA resolve/downsampling basato su ROPS;
X1000 = DX9 SM3, AF high quality selezionabile;
HD2000 = DX10 SM4, CFAA (narrow tent, wide tent), MSAA8X (scomparso 6X), AF high quality fisso, AA resolve/downsampling basato su shader;
HD3000 = DX10.1 SM4.1;
HD4000 = edge detect AA, AA resolve/downsampling nuovamente basato solo su ROPS;
HD5000 = DX11 SM5.0, SSAA, nuovo AF alta qualità.
Grazie.