Quote:
Originariamente inviato da Paolo Corsini
Grazie degli spunti; ho in mente di provare per il prossimo articolo a
1) mettere i grafici del frame time in fps e non in ms
2) gestire meglio i grafici del frame time, soprattutto con più schede, facendo in modo che i diversi andamenti siano più facilmente distinguibili
3) inserire qualche analisi della varianza dei dati
Oltre a questo, se riesco anche aggiungere qualche indicazione di baseline (sullo stile di quello che si faceva in passato con la soglia "sotto i 30 fps non è più fluida la riproduzione), ma devo ancora sperimentare cosa e come.
|
Per il punto 3 stavo pensando che usare semplicemente la varianza (o la deviazione standard che forse è un pochino più comune) darebbe valori poco confrontabili su giochi diversi, in quanto nel singolo gioco è ovvio che sia sempre presente una certa varianza a causa delle variazioni nella complessità dei calcoli fatti dalla scheda video, variazioni che saranno percentualmente diverse da gioco a gioco, quindi da quei dati si potrebbe solo dire "in questo gioco questa scheda video si comporta meglio, quest'altra meno etc...", se però si facesse qualcosa di leggermente più complicato forse si otterrebbero valori più universali: la varianza della differenza fra il grafico del frametime e quello degli FPS (che alla fine è praticamente il grafico del frametime con valori mediati ogni secondo e con un diverso asse delle ascisse). Così si avrebbe che con ogni gioco un valore di varianza pari a zero sarebbe ideale (nell'ipotesi che il grafico degli FPS non mostri variazioni eccessive, ma non capita praticamente mai), e valori maggiori sarebbero confrontabili anche su giochi diverse e quindi si potrebbe anche dire "il gioco x è più soggetto a stuttering del gioco y con tutto l'hardware considerato".
Edit: probabile che in statistica esista già una funzione di questo tipo, ma non essendo ferrato in materia non so quale sia.