scusa io lo spettro di emissione di una lampadina l'ho visto...se tu mi dici che in un 200esimo di secondo(quando il potenziale è giustamente a zero)la temperatura del filamento di tungsteno di una lampadina scende in maniera apprezzabile (si parla di temperature di lavoro superiori ai 2500°k), tanto che è possibile vedere una fluttuazione nella radiazione emessa... la corrente non ha una fluttuazione costante ma tale fluttuazione in termini di radiazione emessa è talmente piccola che non solo è difficile percepirla ad occhio...lo è anche attraverso una strumentazione adeguata. Io lavoro in campo cinematografico è ho una certa esperienza in termini pratici e anche teorici di come funziona una radiazione luminosa e ti posso assicurare che anche effettuando riprese che hanno un frame rate di molto superiore alla frequenza della corrente elettrica tale fluttuazione di emissione non si è mai presentata. Ricordo in modo particolare una ripresa di una lampadina che esplode ripresa a 2500 fotogrammi al secondo dove il tempo di esposizione di ogni singolo fotogramma era superiore all'8000esimo di secondo,dove quindi era esposto lo stesso filamento in ogni singolo momento dell'onda di alimentazione della lampadina.Per inciso a questa velocità di ripresa un evento che nella realtà dura solo 1/50esimo di secondo (quindi un hz dell'onda della corrente alternata)riproposto in proiezione dura 2 secondi (50 fotogrammi) e ti posso assicurare che anche misurato con un densitometro non vi erano apprezzabili differenze nell'esposizione (che èdirettamente proporzionale alla luce emessa)nelle differenti fasi della corrente.
Per quanto riguarda i televisori c'è una imprecisione , i televisori hanno un ciclo di 50 hz (sistema pal) mentre i 60 hz si hanno solo nel sistema ntsc, e in un hz il beam compie solo un semiquadro (tutte le righe dispari o quelle pari) + i sincronismi e la cancellazione di quadro. i sistemi 100hz non fanno altro attravaerso quello che viene chiamato ritardo di linea a ritrasmettere il ciclo di 2 semiquadri (quadro) 2 volte...e questo discorso vale solo per i sistemi interlacciati cosa che non è la stessa sui sistemi monitor per pc che utilizzano un sistema non interlacciato (il quadro viene disegnato tutto insieme) che per essere flicker free(senza sfarfallii) deve superare almeno la frequenza di 50 hz...ma tutti sappiamo che a meno di 60hz tale sistema può essere causa di affaticamento agli occhi.
Per quanto riguarda la famosa diatriba sul frame rate "non è mai abbastanza" su questo forum se ne è già discusso abbastanza in passato...credo non sia possibile fare un paragone col cinema e la televisione e che il discorso sia un pochino + complesso.
il fenomeno di ritenzione retinica fa sì che un'immagine resti impressa sulla retina per almeno 1/8 di secondo, facendo sì che i teorici 18 fotogrammi dell'inizio del cinema fossero sufficienti ad una corretta visione dell'immagine in movimento.Questo però è un valore di soglia, perchè se la retina viene stimolata da + fotogrammi riesce cmq a cogliere una maggiore fluidità di movimento, infatti è questa la ragione che ha portato il cinema a viaggiare a 24 fotogrammi dagli anni 20 fino ai nostri giorni, resta il fatto che cmq anche oggi vi è una diatriba che vorrebbe portare lo standard cinematografico a 30 fotogrammi per migliorare ulteriormente la fluidità e nitidezza generale dell'immagine, tale progetto però è osteggiato dal fatto che andrebbero aggiornati un mucchio di macchinari costosi e che aumenterebbe il metraggio di pellicola utilizzato auemntando ulteriormente i costi di ripresa.
Questo per quanto riguarda l'immagine proiettata che è il mio campo, per quanto riguarda quella su pc le mie sono esperienze dedotte che mi portano a fare una considerazione:
nell'immagine ripresa ogni fotogramma è uno spaccato di realtà della lunghezza di 1/48esimo di secondo, mentre il fotogramma pc è istantaneo, cioè come avveniva nei cartoni animati dove il braccio in movimento veniva disegnato sfumato per creare quell'effetto di movimento che nella realtà esiste e che nel disegno non è presente, allo stesso modo l'immagine del pc in meno rispetto all'immagine vissuta ha una miriade di microinformazioni che rendono la sequenza delle immagini reali + vera.
Io non so se a quake la differenza tra 150 e 200 fotogrammi sia realmente apprezzabile, fondamentalmente perchè non gioco a quake, ma credo che un numero di fotogrammi superiore a quello dello standard cinematografico aiuti a rendere l'immagine un pò + fluida e reale
|