View Full Version : Differenza 50 Hz e 60 Hz
Ciao, volevo sapere che differenze ci sono proprio dal punto di vista visivo nel giocare ad un gioco a 50 Hz o 60 Hz, sempre che la tv lo permetta ovviamente.
Grazie
se i titoli non sono dovutamente ottimizzati i 50Hz sono (ovviamente) piu' lenti e soffrono delle classiche bande nere alle estremita' verticali dello schermo....
Quindi a 60 Hz si va più veloce, proverò con Pes 3, voglio vedere la differenza :)
Originariamente inviato da Ikozzo
Quindi a 60 Hz si va più veloce, proverò con Pes 3, voglio vedere la differenza :)
scegliere di giocare a PES3 a 50hz è come poter fare l'amore con Claudia Koll e rinunciare per farlo con Maurizio Costanzo.
non è solo questione di velocità, ma anche di fluidità :)
-=Krynn=-
17-02-2004, 15:49
Originariamente inviato da sslazio
scegliere di giocare a PES3 a 50hz è come poter fare l'amore con Claudia Koll e rinunciare per farlo con Maurizio Costanzo.
ma lol, che paragone....
cmq è vero......:oink:
The March
17-02-2004, 16:24
Originariamente inviato da yamaz
non è solo questione di velocità, ma anche di fluidità :)
io ho da poco preso la ps2 e ho acquistato anche moh rising sun
in alcune scene il gioco mi pare scattoso, dici che è dovuto all'utilizo dei 50hz o in questo caso non centra niente?
Originariamente inviato da sslazio
scegliere di giocare a PES3 a 50hz è come poter fare l'amore con Claudia Koll e rinunciare per farlo con Maurizio Costanzo.
LooooooooL :D :D :D
Finora l'ho fatto con Costanzo allora, che schifo :( :( :rolleyes: :muro:
squall84
17-02-2004, 21:04
Originariamente inviato da Ikozzo
LooooooooL :D :D :D
Finora l'ho fatto con Costanzo allora, che schifo :( :( :rolleyes: :muro:
ehm ..... :Puke:
xò almeno ti hanno aperto gli occhi :sofico: :sofico:
Il problema della fluidita' con i 50Hz e' in teoria solo questione di ottimizzazione.
Nel caso ottimale (50 frame al secondo), l'immagine finale renderizzata dalla console viene mandata a video ad ogni segnale di VSync del televisore (che nel caso dei televisori PAL e' ogni 1/50 secondo). Quindi e' chiaro che se il codice e' scritto male oppure eccessivamente pesante e' possibile che per renderizzare un'immagine e mandarla a video passi piu' di un segnale di VSync (Ad esempio se il codice del gioco impega 2/50 di secondo a renderizzare un frame del gioco avro' un frame rate complessico di 25 Frame al secondo).
Va considerato anche il fatto che lo standard NTSC ha una risoluzione minore rispetto a quello PAL...quindi, nel fare le conversioni si tende a mantenere invariata la risoluzione (le famose bande nere nei giochi PAL) per non rischiare di perdere frames (ovvia conseguenza, dato il maggior carico di lavoro che grava sulla console se si usasse tutto lo schermo disponibile PAL)
Ciauz :)
Originariamente inviato da Elysium
Il problema della fluidita' con i 50Hz e' in teoria solo questione di ottimizzazione.
Nel caso ottimale (50 frame al secondo), l'immagine finale renderizzata dalla console viene mandata a video ad ogni segnale di VSync del televisore (che nel caso dei televisori PAL e' ogni 1/50 secondo). Quindi e' chiaro che se il codice e' scritto male oppure eccessivamente pesante e' possibile che per renderizzare un'immagine e mandarla a video passi piu' di un segnale di VSync (Ad esempio se il codice del gioco impega 2/50 di secondo a renderizzare un frame del gioco avro' un frame rate complessico di 25 Frame al secondo).
sbagli, anche se si parla di 50 hz per la televisione, in realtà ad ogni cinquantesimo di secondo vengono aggiornate alternativamente le righe dispari o le righe pari, quindi per avere l'aggiornamento completo dell'immagine sono necessarie 2 passate, quindi 2/50=1/25 di secondo.
Quindi si hanno 25 fotogrammi al secondo, che se non erro è considerato il limite minimo per vedere l'immagine fluida.
Killian, si hai ragione, mio errore :) ... anche se il discorso dei mezzi 50eseimi (25 frame al secondo) e' piu' complicato di quanto possa sembrare... :)
~Blissard~
17-02-2004, 22:45
La programmazione su console e' sempre legata al clock video, che fa
anche da clock del gioco.
Pero', se uno vuole, puo' benissimo avere un clock a 50 hz, e un gioco veloce
come la versione a 60 ( anche se leggerissimamente meno fluido ), basta
che rifa' i calcoli della fisica del gioco tenendo conto di questo.
Il problema e' se lo fanno o no. La maggioranza dei giochi PAL senza selettore
hanno ancora i calcoli della versione NTSC, per cui sono piu' lenti.
Se un gioco non ti appare piu' lento, allora evidentemente e' convertito come
si deve, e usa il clock a 50 e il codice del gioco e' impostato tenendo conto
di questo, quindi non c'e' nessun rallentamento. Non ho visto Burnout, se
e' vero che non si nota nessuna differenza, evidentemente e' programmato a 50
in maniera corretta.
Finche' il clock del gioco e' sincronizzato al vsync, il gioco PAL
non potra' mai andare a 60 fps. Pero' non e' grave. In fondo 50 o 60 fps
e' comunque un'ottima fluidita'. Il grave e' ( e purtoppo la maggioranza
e' cosi' ) fare un gioco per 60 e farlo girare senza modifiche a 50, allora
e' piu' lento.
Ma devi comunque mettere mano al codice in parecchi punti,
nei casi di giochi con animazioni, tipo picchiaduro, puo' essere un po'
complicato perche' ci sono discorsi di "quanti frame dura una mossa", e
problemi di keyframing, relativi ai movimenti.
Percio' si fa ( quando lo fannno ) il selettore, proprio per non toccare
il codice. La soluzione ideale e' quella che usa la Sega in qualche gioco:
il codice del gioco e' *identico* tra PAL e NTSC. Da qualche parte c'e'
un test, se la console e' PAL, nel menu' compare il selettore, se e' NTSC
il selettore non compare e il gioco si auto-imposta a 60 hz. Cosi' hai
il meglio delle soluzioni: 60 hz sulle console NTSC, una sola versione
del sorgente da mantenere, e selettore per gli utenti PAL.
la storia dei 50 e i 60hertz si riferisce al vsync dei videogames che
praticamente equivale al clock con il quale si refresha il video, la bagarre
50 - 60 hertz nei videogiochi nasce dal fatto che la modalita video jap e
usa è la NTSC mentre quella europea è PAL.
Le differenze tra le due modalità sono molteplici.
La prima è la velocità di refresh dei tv ntsc che è di 60hertz (non so se
fanno modelli a 120hertz in america) mentre in europa è di 50hertz (ci sono
tv che vanno a 100hertz anche), il refresh del video non è altro che il
numero di volte che il "pennello" che si preoccupa di generare l'immagine a
video, quindi maggiore è il numero di volte che passa il pennello sul video
maggiore è la "stabilità" dell'immagine, per quel che ne so con una maggiore
frequenza di aggiornamento ne guadagna anche la brillantezza e il contrasto
dell'immagine, quindi maggior frequenza = immagine migliore.
Maggior frequenza di vsync come molti di qui pensano non equivale a maggiore
velocità di esecuzione dei videogames, poichè o 25 o 30 o 50 o 60 hertz 1
secondo è sempre un secondo 25 o 30 o 50 o 60 schermate in un secondo non
danno l'impressione affatto di velocità diversa tra una schermata e l'altra.
Almeno cosi' è la cosa giusta, non so se in alcuni giochi di quida o fps se
si utilizza il vsync come clock del gioco allora le cose potrebbero
cambiare, e quindi si potrebbe fare al posto di 5 metri al secondo su un
gioco di guida se ne potrebbero fare 6 e qui la cosa è falsata, forse
qualcuno di voi potrà provare con due mdoalità diverse se la cosa è vera. Ma
un secondo rimane sempre un secondo e in un vg 5 metri dovrebbero essere 5
metri sempre non a seconda della modalità video.
Che voglio dire, come al solito sta pappa dei 50 hertz e 60 hertz è un
problema derivato probabilemnte da una mancanza di metodologia corretta
nello sviluppo dei vg.
Se invece non lo fosse? Cioè diciamo che gli sviluppatori non si basano sul
clock video ma su uno reale? Allora le cose stanno come penso io, ai
giocatori europei non manca il 60hertz come risoluzione ma la modalità ntsc
intera, poichè le risoluzioni orizzontali permesse da questa sono diverse da
quelle pal e spesso gli sviluppatori non adeguano agli standard europei,
quindi ci si trova di fronte alle antiestetiche barre nere che nemmeno i
televisori multistandard riescono a gestire, quindi i possessori di tv
multistandard gradirebbero la possibilità di scegliere pal o ntsc anche
nelle versioni europee dei giochi.
In poche parole il problema dello "scattare" e' di tre tipi diversi:
1) La frequenza dei frame e' troppo bassa per rendere l'illusione del
movimento continuo.
2) La frequenza dei frame non e' costante (anche se puo' essere
elevata).
3) La frequenza non e' in sincronia con il refresh del monitor. In
quest'ultimo caso il fenomeno in inglese e' detto "tearing".
Questi tre effetti non hanno nulla a che vedere tra loro e possono
anche combinarsi.
La prima cosa da sfatare e' l'idea che l'occhio possa percepire solo
25-30 fps. Non so esattamente da cosa derivi quest'idea, forse dal
fatto che dai libri di scuola ci si "ricorda" qualcosa sulla
persistenza dell'immagine sulla retina (cosa che comunque ha solo
qualche legame con il problema della percezione del movimento).
La prova e' semplice: se per l'occhio 30fps fossero a sufficienza non
avremmo problemi nell'usare monitor con refresh di 30Hz. Come nota nei
televisori gli fps sono 25-30 (dipende dallo standard PAL o NTSC) ma
il refresh dello schermo e' del doppio, visto che viene usato un
sistema interlacciato in cui ogni field e' un fotogramma. Nel cinema
si usano 24fps, ma solo come compromesso storico tra le dimensioni
della pellicola, la velocita' di scorrimento e l'esigienza appunto di
rendere l'idea del movimento. Il vantaggio e' che pero' nel cinema
ciascun fotogramma viene visualizzato interamente e all'istante
appena la luce del proiettore lo attraversa, e non tramite un sistema
a scansione come nei tubi catodici.
Il problema numero 3 e' tipico solo dei sistemi a scansione, in cui
l'immagine non viene formata tutta assieme ma nel tempo. Questo causa
il problema del "tearing" nel caso in cui cio' che si vuole
visualizzare non sia sincronizzato con il cannone. Mi spiego: se lo
schermo ha un refresh di 60Hz, viene visualizzato uno schermo intero
ogni sessantesimo di secondo. Se la scheda video manda immagini quando
il cannone non ha terminato il quadro, questo inizia subito a
tracciare la nuova immagine. Accade quindi ad esempio che nella parte
superiore dello schermo ci sia impressa nei fosfori il fotogramma
precedente, mentre nella parte inferiore c'e' il fotogramma
successivo, normalmente con una immagine diversa (non so, la visuale
si e' spostata). Questo puo' avvenire anche piu' volte, per cui da
quando il cannone parte a tracciare dall'alto a quando arriva alla
fine del quadro puo' accadere che 3-4 fotogrammi siano impressi nei
fosfori, per cui l'immagine finale e' un realta' una composizione
"spezzata" di 3 fotogrammi diversi. Questo effetto e' visibile
indipendentemente dal numero di fps, a meno che questo non sia un
sottomultiplo del refresh del monitor. La soluzione al problema
consiste appunto nell' "aspettare il vsync", cioe' mandare a video il
nuovo fotogramma solo quando il successivo e' stato tracciato
completamente. Se il refresh del monitor e' di 60Hz si possono quindi
mandare 60fps (1/1), 30fps (1/2), 20fps(1/3), ecc. Cioe' con 60fps si
invia 1 fotogramma ad ogni refresh, con 30fps si invia un nuovo
fotogramma ogni 2 refresh, con 20 uno ogni 3, ecc. Eliminare l'attesa
per il vsync puo' essere utile quando ad esempio la scheda riesce a
calcolare piu' fps del sottomultiplo inferiore e meno di quello
superiore: se ad esempio la scheda riesce a calcolare 50fps, sarebbe
rallentata dal fatto che deve aspettare il vsync e quindi mandare solo
30fps (sottomultiplo inferiore di 60). Se non si attende il vsync
ovviamente la scheda manda un fotogramma appena questo e' pronto,
quindi effettivamente si possono avere 50fps, solo che si crea
l'effetto descritto sopra. Se i due fotogrammi sono "simili" l'effetto
non si nota molto, mentre se i due sono molto diversi si nota molto la
linea dove il fotogramma precedente si "spezza" e inizia il
successivo.
Questo problema del tearing non e' comunque legato agli altri 2.
Bisogna ora distinguere il refresh del monitor e il numero di fps. Il
refresh e' importante nei sistemi a scansione solo perche se e' troppo
basso l'occhio percepisce il cambiamento di colore dei fosfori che nel
tempo si spengono, e vede l'immagine sfarfallare anche se e' statica.
Chi ha avuto un'Amiga e ricorda "l'interlace" sa di cosa parlo. Nel
caso di un monitor basta fare in modo che il refresh sia elevato
(70-80Hz) e l'immagine appare stabile e come spiegato sopra l'invio
degli fps deve essere sincronizzato e i singoli fps appaiono "interi".
Nel cinema ovviamente non c'e' questo problema perche' il sistema di
proiezione non e' a scansione.
Ancora una volta pero' il problema del refresh non e' direttamente
legato al problema del numero di fps, che influisce sulla percezione
della continuita' di movimento. Suponendo anche di mantenere i due
sincronizzati, per ottenere l'illusione del movimento continuo bisogna
fare in modo che il numero di fps sia elevato. Quanto elevato dipende
da quanto un fotogramma e' diverso dall'altro, in ultima analisi dalla
"velocita'" con cui gli oggetti nel fotogramma si spostano.
Questo si ricollega anche al motivo per cui in molti giochi ci corsa
pur avendo fluidita' sembra di muoversi molto piano.
Facciamo un esempio, considerate un cinema con lo schermo largo 24
metri. Sappiamo che viene inviato un fotogramma ogni 24/esimo di
secondo. Immaginiamo di filmare una barra verticale che si sposta in 1
secondo dal lato destro a quello sinistro dello schermo del cinema.
In questo caso l'immagine percorre 24 metri in 1 secondo, ed essendo
24 gli fps in ogni fotogramma la barra si sposta di 1 metro. Vi
assicuro che apparirebbe tremendamente "scattoso", perche' l'occhio
percepisce piu' di 24fps. In questo caso la persistenza dell'immagine
della retina non aiuterebbe molto, semmai ci farebbe vedere altre
barre sbiadite che si muovono "saltando" di metro in metro dietro
quella principale. Questo per dire che i 24 fps non sono abbastanza in
tutte le situazioni. Sono stati scelti come compromesso per mantenere
accettabile le dimensioni delle "pizze" e la velocita' di movimento
della pellicola nel proiettore. L'effetto' e' mascherato al cinema dal
fatto che le immagini riprese non sono barre bianche su sfondi neri,
ma sono fotografie realistiche, continue, con moltissimi colori. Anche
questo pero' non aiuta molto se ci si trova molto vicini allo schermo:
provate a guardare un film a 2 metri dallo schermo, a parte le
dimensioni e il torcicollo l'effetto e' spiacevole perche' i "salti"
tra un fotogramma e il successivo appaiono molto piu' ampi nello
spazio.
Immaginiamo ora la stessa sbarra che si muove molto piu' piano.. Ad
esempio ci mette 1 ora per passare dal lato sinistro a quello destro.
In tal caso in ogni fotogramma lo spostamento e' molto minore, per cui
a parte il fatto che il movimento e' piu' lento, appare piu' fluido.
Questo perche' la differenza tra fotogrammi successivi e' minore, a
parita' di fps. Questo e' vero anche per i giochi per computer:
supponiamo che l'engine grafico del gioco di corsa riesca a farmi
20fps. Se il movimento dell'auto e' tale che il paesaggio 3D cambi
molto rapidamente, i 20 fotogrammi appariranno molto "slegati" tra
loro, e quindi il gioco sembrera' andare a scatti. Se ad esempio un
oggetto appare lungo la strada ma la velocita' e' tale che in 1/20 di
secondo l'auto l'abbia gia' passato, e' chiaro che vedro' l'oggetto
solo per 1/20 di secondo che non e' sufficiente per capire cosa fosse.
Se invece rallento l'auto, l'oggetto impiega piu' tempo prima di
sparire e fa in tempo ad essere visto per piu' fotogrammi.
Questo e' un po' un caso all'estremo, comunque l'impressione di
velocita' di movimento della macchina, perche' sia fluido, e' legato
agli fps che si riescono a tracciare. Ecco perche' in molti giochi il
tachimetro dice 200km/h ma dal panorama sembra di andare in
bicicletta. Se avessero reso davvero la velocita' non si sarebbe
capito nulla.
Ovviamente il problema si attenua se anziche' 20fps se ne usano 50 o
60, questo perche' essendoci piu' immagini il movimento appare piu'
continuo.
Non si trata quindi solo di sincronizzare e di usare (nel caso dei PC)
refresh elevati, anche il numero di fotogrammi deve essere elevato se
si vuole l'impressione del movimento fluido. La domanda e' quanti
fotogrammi sono necessari..
Dipende dal tipo di soggetto dell' immagine che costituisce
l'animazione, dal numero di colori, dagli occhi e dal cervello della
persona che guarda. In ogni caso non e' vero che l'occhio umano ha un
limite di 20-30fps. Questo limite e' piu' elevato, e varia da persona
a persona. Mi pare di ricordare che studi fatti su un sistema ottico
per il visore oculare dei caschi dei piloti di elicotteri da guerra
fissasse il margine variabile tra i 50 e i 70 fps. Alcune persone
eccezionali riescono a distinguere tra 60 e 70 fps, ma non oltre.
Sembra incredibile, eppure c'e' anche gente che supera abbondantemente
i 10/10 di vista. Tornando all'uomo comune il limite e' fissato non
solo dall'occhio, che aiuta un po' visto che la retina ha una
persistenza elevata, ma soprattutto dal cervello, ed e' intorno ai 60
fps. Giusto per non incasinare troppo le cose, credo sia spontanea la
domanda su come sia possibile se la persistenza e' molto minore: la
risposta e' semplice - la persistenza e' appunto tale, cioe' il tempo
in cui una immagine rimane sulla retina, ma non ha nulla a che vedere
con la "percezione" e con il fatto che piu' immagini possano
sovrapporsi, causando ad esempio l'effetto del "motion blur".
Tempo fa avevo anche preso da internet un programmino che mostrava due
barre sovrapposte in movimento, una a 30fps e l'altra a 60fps. Beh,
l'effetto e' chiaramente visibile. C'e' da notare poi che fino ad ora
non sono nemmeno stati molti i giochi in grado di poter vantare anche
solo 30fps.
ominiverdi
18-02-2004, 03:05
Originariamente inviato da ~Blissard~
CUT....
Le differenze tra le due modalità sono molteplici.
La prima è la velocità di refresh dei tv ntsc che è di 60hertz (non so se
fanno modelli a 120hertz in america) mentre in europa è di 50hertz (ci sono
tv che vanno a 100hertz anche), il refresh del video non è altro che il
numero di volte che il "pennello" che si preoccupa di generare l'immagine a
video, quindi maggiore è il numero di volte che passa il pennello sul video
maggiore è la "stabilità" dell'immagine, per quel che ne so con una maggiore
frequenza di aggiornamento ne guadagna anche la brillantezza e il contrasto
dell'immagine, quindi maggior frequenza = immagine migliore.
Maggior frequenza di vsync come molti di qui pensano non equivale a maggiore
velocità di esecuzione dei videogames, poichè o 25 o 30 o 50 o 60 hertz 1
secondo è sempre un secondo 25 o 30 o 50 o 60 schermate in un secondo non
danno l'impressione affatto di velocità diversa tra una schermata e l'altra.
Almeno cosi' è la cosa giusta, non so se in alcuni giochi di quida o fps se
si utilizza il vsync come clock del gioco allora le cose potrebbero
cambiare, e quindi si potrebbe fare al posto di 5 metri al secondo su un
gioco di guida se ne potrebbero fare 6 e qui la cosa è falsata, forse
qualcuno di voi potrà provare con due mdoalità diverse se la cosa è vera. Ma
un secondo rimane sempre un secondo e in un vg 5 metri dovrebbero essere 5
metri sempre non a seconda della modalità video.
MEGACUT
complimenti per il post :D
hai ragione, fondamentalmente la sensazione di velocita' non e' data dalla frequenza e dai frames al secondo, ma dall' utilizzo ragionato dei frames stessi
ad. es. quando vediamo in TV le riprese di Formula 1 dai vari camera card, ci danno una altissima sensazione di velocita' (come quella reale), nonostante la TV visualizzi 25 frames al secondo (50 semiquadri)
come mai allora a volte i giochi per PC/Consolle sembrano lenti (e/o scattosi!) e non danno la stessa sensazione di velocita' anche se girano a 50 frames-60 frames, o addirittura 100FPS o piu'?
perche' i frames evidentemente sono calcolati alla c****
specie per i PC, che non avendo una frequenza standard a causa dei monitor e delle diverse schede video, la sensazione di velocita' deve essere ricalcolata (non si sa come) in base all' hardware e al fps effettivo
la sensazione di scarsa fluidita' che compare nei giochi per PC/consolle, poi, non e' data da un basso numero di fotogrammi in senso assoluto (come si e' visto la tv a 25 fps costanti e' cmq fluida!!), ma da una variazione improvvisa e avvertibile dall' occhio umano di questi FPS, che non riscono a stare costanti, se non addirittura micro-rallentamenti dei frames.
e i giochi per PC sono PIENI di questi difetti.
si fa gran parlare di 100 o 200 FPS (che non servono a NULLA), e poi magari ci sono questi fastidiosissimi microscattini , periodici (molto visibili!), o rallentamenti causati da un abbassamento dei frames al secondo. :muro:
insomma, la fluidita' e' data dalla COSTANZA dei fps, la velocita' dal calcolo effettivo dei frames.
come giustamente hai detto.
la differenza fra 50 e 60hz, non e' cosi' limitata come verrebbe da pensare, oltre a una velocita' spesso maggiore di ntsc, ntsc ha pero' il rovescio della medaglia di una risoluzione minore, e di certi colori piu' impastati rispetto al PAL
altro vantaggio di NTSC, nonostante i soli 10 hz in piu' l'immagine e' MOLTO piu' stabile e rilassante del PAL, mi ricordo quando usavo AMIGA sul tv, e mi abituavo all' NTSC, poi appena passavo ai 50hz del pal si notava subito MOLTO piu' flickering e un'immagine molto piu' fastidiosa alla vista e stancante :eek:
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.