View Full Version : Ubisoft: l'obiettivo è avere i 60 fps su PC per The Crew
Redazione di Hardware Upg
27-08-2014, 10:01
Link alla notizia: http://www.gamemag.it/news/ubisoft-l-obiettivo-avere-i-60-fps-su-pc-per-the-crew_53739.html
Ubisoft interviene sul dibattito sulle prestazioni del suo nuovo gioco di guida su mondo persistente online, dopo che si era diffusa la voce che sarebbe stato bloccato a 30 fps su PC.
Click sul link per visualizzare la notizia.
sickofitall
27-08-2014, 10:08
nel 2014 ancora queste porcherie di conversioni, io voglio il frame rate libero e non bloccato
si si, parlano proprio loro dopo lo scempio di watch dogs:rolleyes:
29Leonardo
27-08-2014, 10:20
nel 2014 ancora queste porcherie di conversioni, io voglio il frame rate libero e non bloccato
Da ubifail che pretendi, l'han dimostrato piu' volte che non se ne fregano minimamente dei PC.
nel 2014 ancora queste porcherie di conversioni, io voglio il frame rate libero e non bloccato
Mah, se fossero in grado di garantire la generazione di 30fps COSTANTI (ergo minimi) non ci sarebbero problemi di sorta.
Questa degli FPS è una di quelle cose che la gente stenta a capire del tutto, il problema maggiore per l'occhio umano è lo sbalzo e la variazione di framerate.
Se tu di picco hai 200fps ma poi in alcuni tratti scendi a 30, è una cosa che l'occhio percepisce maggiormente rispetto ad avere 30fps costanti.
Nessuno si è mai lamentato del framerate dei film (PAL 25fps).
La differenza sostanziale rispetto ai film è che nei giochi devi generare la scena in real-time (questo complica le cose, perché naturalmente l'interazione col mondo circostante va messa in conto), quindi dipende tutto dal sistema in uso.
Il punto è che per garantire 30fps costanti devi avere hardware adeguato, ed immagino sia più semplice ottimizzare il gioco per l'architettura di una console (1 gpu).
roccia1234
27-08-2014, 10:40
Miraccomando, correte a preordinare e poi lamentatevi, esattamente come avete fatto con Watch Dogs :O
madnesshank
27-08-2014, 10:40
che tristezza vedere questi cialtroni che trattano il mercato pc come spazzatura... ea e ubisoft sono il peggiore cancro del gaming su pc. Se non hanno rispetto per noi spariscano e basta, c'è il mercato delle console per gente come loro
Certo che nel 2014 siamo ancora qua a parlare dei 30fps è piuttosto ridicolo sia per le console sia per il pc.....
Il male dei pc sono le console
Mah, se fossero in grado di garantire la generazione di 30fps COSTANTI (ergo minimi) non ci sarebbero problemi di sorta.
Questa degli FPS è una di quelle cose che la gente stenta a capire del tutto, il problema maggiore per l'occhio umano è lo sbalzo e la variazione di framerate.
Se tu di picco hai 200fps ma poi in alcuni tratti scendi a 30, è una cosa che l'occhio percepisce maggiormente rispetto ad avere 30fps costanti.
Nessuno si è mai lamentato del framerate dei film (PAL 25fps).
Guarda, ho giocato per anni a un gioco dove avevo anche 200+ FPS e credimi che la differenza tra 30 FPS fissi e 60 FPS fissi, in certi tipi di gioco, è lampante, non solo per l'occhio, ma quanto per la giocabilità.
Se poi mi paragoni ancora gli FPS dei film con quelli dei videogames proprio non ci siamo!
PaulGuru
27-08-2014, 10:51
Ed io che dal titolo avevo capito che intendevano assicurarsi che girasse a 60fps su un PC di attuale generazione :rolleyes:
Il punto è che per garantire 30fps costanti devi avere hardware adeguato, ed immagino sia più semplice ottimizzare il gioco per l'architettura di una console (1 gpu).
Sono d'accordo... il problema è che le console attuali sono x86 e hanno una GPU AMD "graphic core next", alla fine. Voglio dire, il lavoro di ottimizzazione è ben più semplice che per la generazione precedente, eppure vedo, stranamente solo Ubisoft, che hanno problemi :doh: Forse che non hanno voglia di sbattersi più di tanto per un branco di pirati (parole loro di qualche tempo fa)?
PaulGuru
27-08-2014, 10:56
Avevo capito anche io così, ma non ne comprendevo il senso... cioè se non hai un hw fisso non puoi garantire 60fps, su cosa lo garantivano su un i3 con la grafica integrata o su un i7 con una vga da 500 euro? :)
Un generico PC di fascia alta ......, giusto anche per avere un riferimento indicativo per noi, come fecero con Crysis 2.
Ma a quanto pare Ubisoft è sempre Ubisoft, pensavo fosse la volta buona che si smentissero e invece si fan sempre riconoscere.
Guarda, ho giocato per anni a un gioco dove avevo anche 200+ FPS e credimi che la differenza tra 30 FPS fissi e 60 FPS fissi, in certi tipi di gioco, è lampante.
Se poi mi paragoni ancora gli FPS dei film con quelli dei videogames proprio non ci siamo!
Invece sono la stessa identica cosa (Framerate Per Second).
La differenza sostanziale è che nel caso dei film leggi da una traccia già generata. Esattamente come nei film di animazione il rendering è già stato fatto (o vedi scattare Cars? :D ).
Nel caso del game hai l'interazione ed il fatto che il rendering viene compiuto in tempo reale, con tutte le problematiche del caso.
Puoi ad esempio giocare più volte lo stesso gioco, ma le scene di cui fare il render difficilmente saranno esattamente uguali alla volta precedente (illuminazione, posizione della camera del giocatore...).
Ci sono una serie di variabili in più che rendono il rendering in tempo reale non banale.
Proprio queste variabili influenzano il framerate, se la scena fosse sempre esattamente la stessa sapresti che con quella macchina e quell'hardware hai quella curva di FPS (con piccole oscillazioni naturalmente).
Tipicamente quello che conta maggiormente negli scenari in tempo reale è il worst case, ovvero il caso peggiore, perché sai che alla peggio avrai quel framerate.
Dopodiché le differenze di cui parli spesso dipendono dal fatto che gli input dell'utente dipendono dalla generazione del frame, e hai l'effetto che a 30fps il giocatore si muova più lentamente rispetto ai 60fps.
E' una cosa che si può notare sui vecchi Counter-Strike ad esempio. A 60fps il mouse era come se laggasse (non la grafica quindi, ma l'input).
gd350turbo
27-08-2014, 11:02
Ma se fosse per me, vi do una zappa in mano e se volete mangiare, via a zappare la terra fino a sera !
Altrochè fare giochi !
Buffoni che non siete altro...
60 fps ?
Need for speed rivals è lockato a 30 fps ed usa circa un 20-30% delle risorse del mio pc !
Slockandolo a 75 le tempistiche del gioco vengono sballate e risulta inusabile...
Esempio di programmazione effettuata da un branco di scimmie urlatrici a cui è stata messa una tastiera davanti !
Ma del resto fate bene a fare così, finchè ci sarà una fila enorme di persone che non vede l'ora di darvi dei soldi, tanti soldi, per un gioco che non si sa come sarà e quando uscirà !
I film hanno il motion blur però... o dico una fesseria? (può essere)
i film è un discorso diverso , nel 90% dei casi quello che vediamo è interlacciato , quindi 50 o 60 semiquadri , senza considerare che le produzioni se girate a 24p devono essere modificate per stare in sincro con standard a 50i o 60i americano (che poi è 59 circa)
Invece sono la stessa identica cosa (Framerate Per Second).
La differenza sostanziale è che nel caso dei film leggi da una traccia già generata. Esattamente come nei film di animazione il rendering è già stato fatto (o vedi scattare Cars? :D ).
Nel caso del game hai l'interazione ed il fatto che il rendering viene compiuto in tempo reale, con tutte le problematiche del caso.
Puoi ad esempio giocare più volte lo stesso gioco, ma le scene di cui fare il render difficilmente saranno esattamente uguali alla volta precedente (illuminazione, posizione della camera del giocatore...).
Ci sono una serie di variabili in più che rendono il rendering in tempo reale non banale.
Proprio queste variabili influenzano il framerate, se la scena fosse sempre esattamente la stessa sapresti che con quella macchina e quell'hardware hai quella curva di FPS (con piccole oscillazioni naturalmente).
Tipicamente quello che conta maggiormente negli scenari in tempo reale è il worst case, ovvero il caso peggiore, perché sai che alla peggio avrai quel framerate.
Dopodiché le differenze di cui parli spesso dipendono dal fatto che gli input dell'utente dipendono dalla generazione del frame, e hai l'effetto che a 30fps il giocatore si muova più lentamente rispetto ai 60fps.
E' una cosa che si può notare sui vecchi Counter-Strike ad esempio. A 60fps il mouse era come se laggasse (non la grafica quindi, ma l'input).
Non hai capito il concetto.
Gli FPS nei film sono generati con un effetto (un utente qui ha detto Motion Blur, non ci metto la mano sul fuoco ma può essere) che rende un FPS di un film molto diverso da uno di un videogioco.
Non me ne intendo di film, ma avevo letto qualcosa a riguardo anni fa quando si discuteva della faccenda, e senza quell'effetto avresti non pochi fastidi a guardare una pellicola a 25FPS.
La differenza tra 30FPS e 60FPS non la noti solo nel lag dell'input, ma anche nel video. Ovviamente se giochi a WOW magari non la noti, ma fidati che in giochi come CS la cosa era evidente.
Ci ho giocato per anni a CS/CSS e fidati che notavi la differenza tra 30 FPS fissi e 60 fissi, anche solo a fare lo spettatore.
Inoltre, notavo la differenza solo in termini di giocabilità tra 60 e 100, ovviamente sempre fissi.
Per quanto riguarda l'effetto di cui parli che sembrava che il mouse laggasse, capitava solo con il vecchio CS1.6 e con FPS > 100, ho giocato per anni con il comando fps_max o max_fps a 100. Da CSS in poi potevi giocare tranquillamente anche a 300FPS
Dimmi che non noti differenze: http://www.30vs60fps.com/
Una vecchia discussione al riguardo: http://forum.multiplayer.it/showthread.php?178203-30-60-FPS-Mettiamo-le-cose-in-chiaro
PaulGuru
27-08-2014, 11:50
Mah, se fossero in grado di garantire la generazione di 30fps COSTANTI (ergo minimi) non ci sarebbero problemi di sorta.
Questa degli FPS è una di quelle cose che la gente stenta a capire del tutto, il problema maggiore per l'occhio umano è lo sbalzo e la variazione di framerate.
Se tu di picco hai 200fps ma poi in alcuni tratti scendi a 30, è una cosa che l'occhio percepisce maggiormente rispetto ad avere 30fps costanti.
Nessuno si è mai lamentato del framerate dei film (PAL 25fps).
La differenza sostanziale rispetto ai film è che nei giochi devi generare la scena in real-time (questo complica le cose, perché naturalmente l'interazione col mondo circostante va messa in conto), quindi dipende tutto dal sistema in uso.
Il punto è che per garantire 30fps costanti devi avere hardware adeguato, ed immagino sia più semplice ottimizzare il gioco per l'architettura di una console (1 gpu).
Eccone un altro della serie "oltre i 30fps è fluido e non noti differenze"
Ma smettiamola di dire cavolate ! E smettiamola di rosikare.
Fra l'altro mantenere i 30fps fissi è facilissimo, devi proprio avere un HW veramente scarso per non farcela, io è da anni che non vedo numeri così bassi a fraps a parte durante i lag.
30fps fissi su PC fanno VOMITARE !
devilred
27-08-2014, 11:52
Sono d'accordo... il problema è che le console attuali sono x86 e hanno una GPU AMD "graphic core next", alla fine. Voglio dire, il lavoro di ottimizzazione è ben più semplice che per la generazione precedente, eppure vedo, stranamente solo Ubisoft, che hanno problemi :doh: Forse che non hanno voglia di sbattersi più di tanto per un branco di pirati (parole loro di qualche tempo fa)?
se non hai voglia di lavorare per il branco di pirati ti togli dai maroni e fai spazio a chi ne ha voglia.
giubox360
27-08-2014, 11:56
il problema è che queste nuove console dovevano dare respiro al mondo Pc smettendo di riproporre porting castrati come nella scorsa generazione...ma vedo che la situazione è addirittura peggiorata...basti pensare all'imminente uscita su PC di titoli come dead rising 3 e ryse, che immagino che su pc gireranno con più effetti grafici anche in 4k agilmente per i possessori di schede top come le amd 290 o le gtx 780 ;)
Per chi ha citato i film: a me pare la differenza ci sia http://www.red.com/learn/red-101/high-frame-rate-video
Ragazzi, non so se lo avete capito, ma la differenza principale tra i 24 FPS di un film e i 24 FPS di un videogioco, è che OGNI FRAME DEL FILM DURA 1/24 di secondo. I frames durano tutti lo stesso tempo! Mentre nei frames di un videogioco (o rendering in real time in generale) ogni frame viene generato in un lasso di tempo diverso, è questo che crea una discordanza tra la fluidità di un film e quella di un videogame a pari FPS.
Se per esempio dividessimo 24 frames di un videogame fisso a 24 fps, anche se 23 dei frame vengono generati in (numero a caso) 15 millisecondi, ma l'ultimo viene generato in 30, l'occhio umano avrà una sensazione di stuttering.
albero77
27-08-2014, 12:24
60fps forse vanno bene per le console.Su pc ci sarebbero i 120fps.I veri polli sono quelli che continuano imperterriti ad acquistare vga o comunque hardware ultra potente in generale per fare...benchmark.Continuate ad alimentare il mercato polletti!Non avete ancora capito qual'è l'andazzo?!
gd350turbo
27-08-2014, 12:45
se non hai voglia di lavorare per il branco di pirati ti togli dai maroni e fai spazio a chi ne ha voglia.
:ave: :ave: :ave: :ave: :ave:
30fps fissi su PC fanno VOMITARE !
:ave: :ave: :ave: :ave: :ave:
roccia1234
27-08-2014, 13:00
Nessuno si è mai lamentato del framerate dei film (PAL 25fps).
La faccenda nei film è molto, molto diversa.
Saranno anche a solo 25 fps, ma vengono adottati tutta una serie di "trucchi" per non avere un'immagine scattosa.
Me ne intendo ben poco di film o cinematografia, ma puoi fare un test anche subito:
Prova a mettere in pausa un film in un momento d'azione: l'immagine non sarà perfettamente definita come nello screenshot di un gioco, ma sarà mossa, anche molto mossa.
Il fatto il fatto che il singolo fotogramma sia mosso, contribuisce a dare senso di fluidità all'azione, cosa che nel gioco non accade.
Sarà, ma quando guardo un film mica si vede così da schifo come in quella pagina.
Hai mai provato a mettere in pausa un film?
sbudellaman
27-08-2014, 13:47
Nessuno si è mai lamentato del framerate dei film (PAL 25fps).
Basta questo per dire che non sai di che parli... informati su cos'è il motion blur.
E questa baggianata che mandare oltre i 25-30 fps un videogioco è inutile, deve finire. La differenza coi 60 fps in alcuni titoli è abissale.
Incredibile come i produttori inventino cavolate per giustificare la loro incapacità, e voi ci cascate ogni volta come allocchi.
Ma basta vedere questo per vedere la differenza abisalle tra 30 e 60 fps.
http://www.30vs60fps.com/
La cosa buffa è che questo link l'ho trovato in un sito che sostiene che non ci siano differenze tra 30 e 60 fps nei videogiochi, mettendo questo link come prova :asd:
DriveTheOne
27-08-2014, 14:07
Ragazzi, cosa state dicendo?
la differenza tra i videogiochi e film è il shutterspeed.
sia 24, 25fps ed oltre hanno 1/48 per i 24fps e 1/50 per i 25fps di otturatore nonchè un otturatore lento (provate a fare una foto con una reflex a 1/50 e capite la differenza).
mentre i videogiochi non hanno otturatori o quant'altro, per questo che risulta molto fastidioso ai gamers.
esperienza? direttore della fotografia e gamer :)
ps: interlacciato e progressivo non centrano assolutamente nulla con il motion blur.
PaulGuru
27-08-2014, 14:37
60fps forse vanno bene per le console.Su pc ci sarebbero i 120fps.I veri polli sono quelli che continuano imperterriti ad acquistare vga o comunque hardware ultra potente in generale per fare...benchmark.Continuate ad alimentare il mercato polletti!Non avete ancora capito qual'è l'andazzo?!
no qualè ? Il solito giochettino Ubisoft realizzato da cani ? se lo possono tenere, non mi risulta che la stessa storia si verifichi con altri specifici generi come gli FPS quindi .....
I polletti sono quelli che si accontentano delle console e si definiscono gamers e poi pretendono pure di avere diritto di parola nelle discussioni serie, tanto 30fps è liscio, 1080p su un tv non mostra aliasing e magari non c'è differenza fra pc e console, vero ? Ho saltato qualcosa ?
Sta a vedere che tu giochi a BF a 1440p a 60fisso con una VGA di bassa lega ......
Non hai capito il concetto.
Gli FPS nei film sono generati con un effetto (un utente qui ha detto Motion Blur, non ci metto la mano sul fuoco ma può essere) che rende un FPS di un film molto diverso da uno di un videogioco.
Non me ne intendo di film, ma avevo letto qualcosa a riguardo anni fa quando si discuteva della faccenda, e senza quell'effetto avresti non pochi fastidi a guardare una pellicola a 25FPS.
La differenza tra 30FPS e 60FPS non la noti solo nel lag dell'input, ma anche nel video. Ovviamente se giochi a WOW magari non la noti, ma fidati che in giochi come CS la cosa era evidente.
Ci ho giocato per anni a CS/CSS e fidati che notavi la differenza tra 30 FPS fissi e 60 fissi, anche solo a fare lo spettatore.
Inoltre, notavo la differenza solo in termini di giocabilità tra 60 e 100, ovviamente sempre fissi.
Per quanto riguarda l'effetto di cui parli che sembrava che il mouse laggasse, capitava solo con il vecchio CS1.6 e con FPS > 100, ho giocato per anni con il comando fps_max o max_fps a 100. Da CSS in poi potevi giocare tranquillamente anche a 300FPS
Dimmi che non noti differenze: http://www.30vs60fps.com/
Una vecchia discussione al riguardo: http://forum.multiplayer.it/showthread.php?178203-30-60-FPS-Mettiamo-le-cose-in-chiaro
A me le differenze sembrano minime, ma è ovvio che dipende anche dalla sensibilità dell'occhio, non uguale per tutti e proprio per questo non sto cercando di convincere nessuno.
Quello che invece a molti sfugge è la differenza tra rendering e rendering in tempo reale.
Comunque mi riferivo proprio all'effetto che su CS 1.6 avevi quando attivavi ad esempio il vsync e avevi 60fps (sugli LCD).
Il fatto che il framerate possa essere collegato anche ad altro lo dimostra il commento di gd350turbo.
Eccone un altro della serie "oltre i 30fps è fluido e non noti differenze"
Ma smettiamola di dire cavolate ! E smettiamola di rosikare.
Fra l'altro mantenere i 30fps fissi è facilissimo, devi proprio avere un HW veramente scarso per non farcela, io è da anni che non vedo numeri così bassi a fraps a parte durante i lag.
30fps fissi su PC fanno VOMITARE !
Guarda hai preso la persona sbagliata, non ho mai detto che bastano "30fps", anche perchè detta così non vuol dire assolutamente nulla.
Non sto cercando di vendere niente a nessuno.
Generare una scena 3d in tempo reale (se vi è chiaro cosa significa il concetto di tempo reale), può avere dei costi variabili in termini di computazione e sono questi costi variabili a fare la differenza che percepisce l'occhio umano.
Questo è ancora più vero se consideriamo un gioco interattivo in cui è l'utente a dirigere camera e azioni di gioco.
L'utente xBonus ha compreso perfettamente ciò che intendevo dire quando facevo un confronto con il framerate di un film.
Avere framerate costante significa proprio che ogni frame viene generato nello stesso tempo, e la sfida nella programmazione real time è proprio quella.
PaulGuru
27-08-2014, 14:47
Avere framerate costante significa proprio che ogni frame viene generato nello stesso tempo, e la sfida nella programmazione real time è proprio quella.
Chiamasi Vsync ed esiste da tanti anni, per avere 30fps costanti basta impostare il vsync double buffer per avere 1 frames ogni 33.6ms e ti assicura che la visione provoca attacchi di diarrea acuta.
Su alcuni titoli va bene perchè su console hanno un algoritmo supplementare in quanto gran parte dei loro titoli sono a 30fps, ma su PC questo non esiste, quindi almeno a 60fps fissi deve stare il gioco per essere fluido nel vero senso della parola.
Dynamite
27-08-2014, 15:23
La differenza principale tra i 24 frame al secondo di un film e di un videogioco è che nel primo caso i singoli frame sono uno la continuazione dell'altro, quindi visti di seguito trasmettono la sensazione di fluidità anche se il framerate è basso (provate a bloccare una scena di movimento veloce, risulta nitida? No...). Nel secondo caso invece i frame sono sono generati slegati gli uni dagli altri e affinché venga percepita una sensazione di fluidità decente il framerate deve essere più alto rispetto a quello di un film. 30 fps in un videogioco sono troppo pochi, la sensazione di scattosità è evidente, ce ne vogliono almeno 45-50. Mi è capitato di vedere girare l'ultimo Need for Speed bloccato a 30 fps e faceva veramente pena...
Comunque anche i film dovrebbero aumentare i frame perchè con le tecnologie moderne, alte risoluzioni ecc, nei movimenti la qualità è veramente scarsa, tanto le TV LED sfocano tutto e le persone se ne fregano.
Peter Jackson ha provato a tirare in questo senso girando a 48 frame ma non ha avuto un gran seguito
A me le differenze sembrano minime, ma è ovvio che dipende anche dalla sensibilità dell'occhio, non uguale per tutti e proprio per questo non sto cercando di convincere nessuno.
A me non sembrano minime, sarà perché sono abituato a giocare a frame elevati, ma la sensazione di scattosità nei 30 FPS, soprattutto se paragonato ai 60, è evidente. E lo sarà ancora di più durante il game.
Non che a 30FPS non sia giocabile, infatti è il minimo sindacale per avere un'esperienza godibile, ma giocare a 60 è molto molto meglio.
Comunque mi riferivo proprio all'effetto che su CS 1.6 avevi quando attivavi ad esempio il vsync e avevi 60fps (sugli LCD).
Non ho mai attivato il vsync in CS perché a 100 FPS giocavo meglio rispetto a 30/60 FPS anche con vsync. Se non sbaglio l'effetto a cui ti riferisci si percepisce anche in altri giochi, ma forse dipende anche dal tipo di vsync (triple buffered, normale)
albero77
27-08-2014, 16:10
no qualè ? Il solito giochettino Ubisoft realizzato da cani ? se lo possono tenere, non mi risulta che la stessa storia si verifichi con altri specifici generi come gli FPS quindi .....
I polletti sono quelli che si accontentano delle console e si definiscono gamers e poi pretendono pure di avere diritto di parola nelle discussioni serie, tanto 30fps è liscio, 1080p su un tv non mostra aliasing e magari non c'è differenza fra pc e console, vero ? Ho saltato qualcosa ?
Sta a vedere che tu giochi a BF a 1440p a 60fisso con una VGA di bassa lega ......
1080p 60fps basta una ps4...ancora che state li a difendere cosa?!
Porting fatti con i piedi,giochi ottimizzati col pene,profili sli/xfire inesistenti,patch su patch che ci vogliono sei mesi per riuscire a giocare...etc
Contenti voi...Ormai sono rimasti giusto i benchmark.
amd-novello
27-08-2014, 17:16
Come al solito diamo addosso alle consolle. Infatti anche sul pc vanno a 30 frame. Come mai? Per non far sfigurare le consolle come dicono? Mica ci crederete.
È che sono incapaci a fare giochi decenti o non vogliono. Le console sono sempre esistite e farcry, crysis, hl2 &co sono comunque usciti ed erano da spacca mascella per i tempi.
Quando programmano seriamente per le consolle infatti i giochi ottimi escono.
Chiamasi Vsync ed esiste da tanti anni, per avere 30fps costanti basta impostare il vsync double buffer per avere 1 frames ogni 33.6ms e ti assicura che la visione provoca attacchi di diarrea acuta.
Su alcuni titoli va bene perchè su console hanno un algoritmo supplementare in quanto gran parte dei loro titoli sono a 30fps, ma su PC questo non esiste, quindi almeno a 60fps fissi deve stare il gioco per essere fluido nel vero senso della parola.
Non proprio, il VSync sincronizza i frame al refresh rate dello schermo, ergo se hai un refresh di 60hz ma hai FPS ballerini ben sotto quella soglia ci fai poco e noterai comunque il gioco scattare.
Il VSync è una limitazione superiore e non inferiore, al frame rate.
Quello che invece vorresti tanto avere è una garanzia di limite inferiore agli FPS sotto il quale il sistema non scende mai.
Comunque queste sono pure considerazioni teoriche. Chi vivrà vedrà, non intendevo scatenare il putiferio :D.
PaulGuru
27-08-2014, 17:40
Non proprio, il VSync sincronizza i frame al refresh rate dello schermo, ergo se hai un refresh di 60hz ma hai FPS ballerini ben sotto quella soglia ci fai poco e noterai comunque il gioco scattare.
Il VSync è una limitazione superiore e non inferiore, al frame rate.
Quello che invece vorresti tanto avere è una garanzia di limite inferiore agli FPS sotto il quale il sistema non scende mai.
Comunque queste sono pure considerazioni teoriche. Chi vivrà vedrà, non intendevo scatenare il putiferio :D.Infatti i giochi devono girare sempre a 60 fissi o comunque con cali solo ogni tanto.
Quello che chiedi tu è un ulteriore feature da sviluppare sulla VGA e che poi andrà in collaborazione con un monitor a refresh variabile ( Gsync ), ma finchè nessuno smuoverà le acque nessuno farà nulla.
Lian_Sps_in_ZuBeI
27-08-2014, 18:45
55-60 fps con i5 4670k a 4.3 Ghz 16gb Ram e una gtx 780 in fullHD.
PaulGuru
27-08-2014, 19:15
55-60 fps con i5 4670k a 4.3 Ghz 16gb Ram e una gtx 780 in fullHD.
si vede che è Ubizoz
1080p 60fps basta una ps4...ancora che state li a difendere cosa?!
Porting fatti con i piedi,giochi ottimizzati col pene,profili sli/xfire inesistenti,patch su patch che ci vogliono sei mesi per riuscire a giocare...etc
Contenti voi...Ormai sono rimasti giusto i benchmark.
1080p e 60fps su PS4?
Ma per ora se ne sono visti pochini e non mi pare che ultimamente i giochi per console brillini per ottimizzazione, a parte le esclusive.
In compenso con un hw del 2009 + scheda video del 2011 gioco ancora a tutto in 1080p senza problemi
amd-novello
28-08-2014, 01:52
Come dire che nel mondo pc di giochi ottimizzati non ce ne sono. Visto che non è vero non generalizziamo troppo.
Le cpu multi core da quanto ci sono? Sono sfruttate? Mah
Come ottimizzazione le console hanno ancora la loro. Poi calcola che sono uscite da poco. Due o tre anni ci sono sempre voluti.
sintopatataelettronica
28-08-2014, 03:59
Mah, se fossero in grado di garantire la generazione di 30fps COSTANTI (ergo minimi) non ci sarebbero problemi di sorta.
Questa degli FPS è una di quelle cose che la gente stenta a capire del tutto, il problema maggiore per l'occhio umano è lo sbalzo e la variazione di framerate.
Se tu di picco hai 200fps ma poi in alcuni tratti scendi a 30, è una cosa che l'occhio percepisce maggiormente rispetto ad avere 30fps costanti.
Nessuno si è mai lamentato del framerate dei film (PAL 25fps)..
Come ti ha già spiegato qualcuno, nei film i 24fps funzionano per tutta una serie di ragioni, tra cui la shutter speed usata in fase di ripresa, perché il video venga poi riprodotto correttamente .. e son stati scelti non perché sia il limite oltre il quale l'occhio umano non vede più la differenza (non so come questa leggenda metropolitana continui a sopravvivere e prosperare ancora nel 2014).. ma esattamente per il motivo opposto: ovverosia che SOTTO quella soglia (i 24fps) l'occhio umano medio non percepisce più la successione di immagini come un filmato.. ma inizia a vedere le singole fotografie che la compongono. Per cui, visti i limiti tecnologici dell'epoca, venne fissata questa soglia MINIMA.. che tutto è tranne che ottimale, e che è perdurata fino ai giorni nostri ma che inizia ad essere limitante (oggi in digitale nessuno gira più a 24 FPS, infatti)
Sul pc le differenze si vedono eccome tra i 30 e i 60 fps.. un gioco a 30 fps tutto risulta tranne che fluido, pure se i 30 fps fossero assolutamente costanti.
A 60 fps la fluidità inizia ad essere accettabile.. ma chi ha avuto un buon monitor CRT in passato (di quelli a 100 hz o più) sa che la differenza si percepisce nettamente anche ben oltre quella soglia.. fino a 100-120 fps.. più o meno, a seconda dell'occhio.
sintopatataelettronica
28-08-2014, 04:30
Da quanto ho capito fa molto peggio, se hai FPS ballerini sincronizza lo stesso il refresh e i frame ma visto che non può farlo a 60 fps scala a 30 fps e fa cagare.
O si ha un sistema che permette 60 fissi o meglio tenerlo spento.
Il Vsync non è stato inventato per aumentare la fluidità dei fotogrammi ma per ridurre un altro problema del rendering realtime su PC: il tearing.
Il dispositivo di visualizzazione (monitor) ha una certa frequenza di lavoro, espressa in hertz, che determina il tempo che il dispositivo impiega a costruire una singola immagine. In genere nei monitor LCD "normali" è 60hz, che significa che in un secondo l'immagine su schermo sarà "rinfrescata" 60 volte, ovverosia una volta ogni 1/60 di secondo.
Se la scheda video del PC (nel caso "ottimale", in cui la CPU non fa da collo di bottiglia) genera le immagini con una frequenza diversa da quella del dispositivo di visualizzazione e ad esso non è sincronizzata, alcuni "quadri" (immagine visualizzata sul monitor) saranno composti da pezzi di fotogrammi consecutivi , saranno insomma "tagliati in due" (o più parti), con visualizzato un pezzo del fotogramma precedente e un pezzo di quello successivo.
Il Vsync è stato inventato per sincronizzare ciò che esce renderizzato dalla scheda video con la frequenza usata del dispositivo di visualizzazione ed evitare dunque la visualizzazione di questi "quadri" spezzati in due o più parti ..
e funziona bene (a livello di fluidità) quando la capacità di rendering della GPU è SEMPRE superiore, come numero di frame, al numero di HZ del monitor.. per cui, facendo l'esempio di un monitor a 60hz.. invece di fargliene tirare fuori 100 al secondo, che sarebbero costantemente fuori sincronia col dispositivo di visualizzazione, il VSync fà sì che venga generato esattamente 1 quadro ogni 1/60 di secondo (di più nemmeno servirebbero a niente in questo caso, non essendo il monitor in grado di visualizzarli), eliminando di fatto il problema del "tearing"..
Se però la capacità di rendering della GPU non è costante e scende spesso sotto il numero di HZ del dispositivo di visualizzazione.. ecco che iniziano altri problemi .. tra cui quello odioso del famigerato stuttering.
Comunque il Vsync, tecnicamente, non "scala" niente.. non fa altro che sincronizzare il numero di quadri generati dalla GPU con quelli visualizzati dal dispositivo (monitor).. per potergli "servire" (se è pronta, altrimenti permane il fotogramma precedente) un'immagine completa renderizzata dalla gpu ogni 1/HZ di secondo.
sintopatataelettronica
28-08-2014, 04:47
Il VSync è una limitazione superiore e non inferiore, al frame rate.
Non è tecnicamente esatto: il Vsync è semplicemente la SINCRONIZZAZIONE del numero di fotogrammi generati dalla GPU con la frequenza di lavoro del dispositivo di visualizzazione.
PaulGuru
28-08-2014, 09:25
Come dire che nel mondo pc di giochi ottimizzati non ce ne sono. Visto che non è vero non generalizziamo troppo.
Le cpu multi core da quanto ci sono? Sono sfruttate? Mah
Come ottimizzazione le console hanno ancora la loro. Poi calcola che sono uscite da poco. Due o tre anni ci sono sempre voluti.
Si certo come no, ma fra 2 - 3 anni i giochi saranno anche più pesanti.
Se le cose gli andranno bene manterranno questo attuale standard di qualità anche con i titoli next gen e basta.
Dopo diventeranno obsolete come sempre e si tirerà avanti così ancora per mezzo decennio almeno.
Però da quanto sapevo il vsync non fa generare un numero esatto di frame per secondo alla gpu, semplicemente elimina quelli in eccesso.
non credo; attivando il vsync, il carico della scheda video si riduce un po' , e la riduzione di carcio/potenza assorbita e' piu' elevata per i vecchi giochi.
E' probabile che quando si terminato il rendering del prossimo frame da visualizzare, la gpu venga messa in attesa finche' tale frame non viene utilizzato.
Tronando in topic; bloccare il framerate sarebbe un bel problema per chi gioca in 3d; per avere 60fps per occhio il mio pc deve renderizzarne 120 al secondo (la posizione della camera viene spostata alternativamente ad ogni frame renderizzato) , bloccarlo a 30 per me significherebbe giocare a 15.
amd-novello
30-08-2014, 00:40
Si certo come no, ma fra 2 - 3 anni i giochi saranno anche più pesanti.
Se le cose gli andranno bene manterranno questo attuale standard di qualità anche con i titoli next gen e basta.
Dopo diventeranno obsolete come sempre e si tirerà avanti così ancora per mezzo decennio almeno.
Si infatti nelle previous gen sono obsoleti i giochi dell' ultima serie.
Se azzeccassi almeno una previsione...
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.