nell'analisi dei segnali.
maneggiando con alcuni dati cercavo di rendere piu' visibili le macrodifferenze tra' il tempo di generazione dei singoli frame.
per fare questo tipo di analisi ci sono diverse strade:
una e' quella di generare diversi report della stessa analisi, e rapportarli tra' di loro, eliminando le minime differenze ed incrementando le macrodifferenze tra' i tempi di generazione dei singoli frame, interpolando i risultati tra' le diverse analisi dello stesso frangente.
e' complicato da descrivere, ma in pratica, lo scopo e' di enfatizzare le differenze delle singole generazioni di frame tra' quelle limitrofe.
matematicamente si fa' con il teorema di fourier; giusto per far capire graficamente cosa si ottiene vi rimando a questo grafico NMR:
http://www.mhhe.com/physsci/chemistr...gures/nmr2.gif
e' la risultanza di una fourier su un numero (su potenza di 2, ossia 4/16/32/64) di acquisizioni singole da dover interpolare, ed i picchi sono le valenze maggiori enfatizzate (in rapporto al valore effettivo ed alle altre valenze); in pratica i picchi mostrano dove c'e' una maggiore differenza sul valore piu' ripetitivo (che e' il livello zero
+rumore).
operando in questo tipo di analisi verrebbero mostrate le differenze piu' rilevanti.
ora, applicare una fourier non e' facile, anche perche' richiederebbe piu' test della stessa natura sullo stesso minuto (almeno 16, e il dover generare un algoritmo adatto), quindi si puo' procedere effettuando enfasi e mitigazioni del segnale sugli intorni vicini del singolo valore.
il risultato pero' potrebbe forviare.
dall'analisi che ho effettuato si nota in modo evidente una ripetizione piu' o meno a frequenza regolare della difficolta' delle varie schede nel generare i frame, perche' le schede video non fanno solo quello.
nella pratica si deduce in maniera chiara che molti rallentamenti sono dovuti essenzialmente al load delle texture, ossia a quanta ram e' disponibile per queste, valore che varia a seconda del drive utilizzato e a seconda di come quest'ultimo opera (rapido reload ad alta frequenza con poca ram in modo da diminuire l'impatto sulle prestazioni grafiche, o uso di tutta la ram disponibile contando sulla minimizzazione dell'impatto negativo del reload massiccio grazie alla velocita' stessa della ram e della GPU, se in configurazione a singola GPU o a doppia GPU)...
ecco... diventa difficile sia effettuare un'analisi competente sia descriverla sia coprenderla...
in piu', come gia' detto, quello che succede sulle pipeline non e' quello che poi viene mostrato a video; ecco perche' nvidia analizza i sistemi in quel modo (ottimizzando, nella maggior parte dei casi, a mia supposizione, la frequenza e la consistenza del reload).
cioe', e' un massiccio lavoro che poi apprezzerebbero 2 o 3 persone... un po' troppo lavoro per solo 3 o 4 persone.
la soluzione:
la redazione puo' esclusivamente rilasciare in licenza i dati grezzi, poi uno se li elabora come vuole...
ma... rendiamoci conto di che cosa si sta' chiedendo!|