View Full Version : nVidia NV30: e se la memoria fosse clockata ad 1GHz?
Redazione di Hardware Upg
18-10-2002, 11:35
Link alla notizia: http://news.hwupgrade.it/7337.html
Ancora informazioni ufficiose sulle caratteristiche dell'ormai imminente GPU di nVidia, successore delle schede GeForce4
Click sul link per visualizzare la notizia.
OverClocK79®
18-10-2002, 11:40
forse ne faranno come al solito 2 versioni all'inizio........come fu per le G4 per poi rilasciare la versione che venderà di + ossia la + economica.......
forse uscirà prima la 5400 e poi la 5600 che ne so :)
sparo a caso :)
certo che 1ghz di frequenza per le mem è parekkio :)
BYEZZZZZZZZZZZ
Billabong
18-10-2002, 11:42
Aoohh, ma si sbrigano a farla uscire stà sk?? Nn se ne può più di queste voci, vetecela vedere e basta!! :D
DDR-II A 1 GHZ+Gigapixel 3d = banda teorica di 30 gb/s
:eek: :eek: :eek: :eek: :eek:......maronna,tocca vedere se le prossime cpu gli staranno dietro all' nv30.(se pensiamo che l hammer uscira a settembre del prox anno):(
(IH)Patriota
18-10-2002, 11:52
Core a 400Mhz DDR a 1Ghz , questa di nvidia ed ati assomiglia sempre di piu' alla guerra Intel Vs. AMD con clock elevatissimi per la prima ed un' efficenza per Mhz superiore per la seconda , ad ogni modo ancora un po' che nvidia aspetta ad uscire con NV30 ed abbiamo la certezza che babbo natale giochera' ad UT2003 in una LAN con le renne usando la 9700 :D ! LOL
speriamo che curino più del solito anche la qualità d'immagine! ;)
(IH)Patriota
18-10-2002, 11:57
Originariamente inviato da Avatar0
[B]DDR-II A 1 GHZ+Gigapixel 3d = banda teorica di 30 gb/s
...:o:o:o:o:o:o...maronna,tocca vedere se le prossime cpu gli staranno dietro all' nv30.(se pensiamo che l hammer uscira a settembre del prox anno):(
Hai sollevato una questione piu' che giusta , con la 9700 ed un 2100+ (1730Mhz 10x170Mhz) sei cpu limited alla grande , calcola che anche overcloccando l' R300 da 325@310 a 375@350 c'è un guadagno di 25 pts in 3 mark , abilitando l' AA e ANISO sopra i 1280x1024 le prestazioni crollano in confronto ai bench fatti il PIV a 2,533 ....
Alla fine se hanno fatto tutti i bench con processoroni ci sara' pure un motivo no ?
Mettete in conto quindi oltre alla scheda video anche un bel processore sui 300-350€ per fare le cose fatte bene ....
Buone spese !
Nandozzi
18-10-2002, 12:37
A questo punto nascec un dubbio: ora la potenza delle GPU è limitata dalla CPU in maniera molto pesante ed è quindi lecito chiedersi che senso possa avere comprare una GP che non si può sfruttare perchè non ci sono CPU adeguate ? Voi che ne dite ? Io penso che sia più logico aspettare che calino i prezzi e poi comprare la GPU...
...beh...se l'idea è quella di arrivare al top con una versione con mem a 1 ghz...speriamo in un a da 800 che si overclocca bene e che costa la meta!:D
Quincy_it
18-10-2002, 13:09
Più indiscrezioni trapelano,
e più cresce la curiosità! :)
Sono davvero curioso di vedere cosa tirerà fuori Nvidia!
OverClocK79®
18-10-2002, 13:22
bhe chiaro.......
con l'NV30 occorre avere anke un bel processore sotto
XP 2800+ o P4 2.8 :)
scusate ma è logico che chi si prende l'NV30 spero abbia sotto anke un bel processorino......
io butto la una cifra......vediamo se azzecco......
la versione media costerà sui 650€ circa
BYEZZZZZZZZZ
tutte queste notizia mi danno una sensazione strana..
ho l'impressione ke nvidia dalle sue mosse commerciali sia in brutte condizioni di progettazione
magari mi sbaglio
si come no...tutte queste notizie nn servono altro che per rimescolare le carte...ma a noi utenti che stiamo aspettando...loro sanno benissimo come è fatta questa scheda...e poi ormai a un mese dal debutto a LasVegas la fase di progettazione è terminata già da un bel pezzo!!..a questo punto penso che Nvidia stia già affinando i driver...
cmq la scelta delle DDRII è la più azzeccata per colmare il gap contro il bus a 256bit della 9700...domanda cosa succederà se Ati deciderà di montare sul suò chip R300 a 0.13 anche lei le DDRII accoppiate ad un bus a 256bit....???nVidia dovrà ritrattare allora o i prezzi oppure rimediare con una versione ancora più potenziata...su un progetto su cui ci lavorano da anni e anni...
Beh la qualità video dovrebbe essere eccellente se è vero che ti questo progetto c'entrano anche molte "teste" della 3DFx....chissà se è vera la storia dell' AA a 4x senza nessuna perdita in frames...e in prestazioni....
Dragon2002
18-10-2002, 14:18
Mah oltre alla potenza Nvidia dovre stare attenta al prezzo e far uscire subito una versione della suo Nv30 a un 300euro,se no saranno dolori qualsiasi sia il vantaggio con la 9700 che ricordiamolo ha gia una potenza talmente eleveta che basta e avanza per un'anno intero.I consumatori nn si lasciano poi tanto fregare dalle supe schedi di punta basta vedere quante siano poche le ti4600 in confronto alle ti4200. E poi anche la stessa 9700 che è la scheda di punta del momento l'hanno comprata in pochissimi.
secondo me andrà così....l'Nv30 esce...e come al solito dalla politica di Nvidia a un prezzo da mutuo...e a quel punto Ati cala...adesso costa tanto...perchè è veramente l'unica con quelle prestazioni...anche se già adesso sta calando...quando usci veniva 520€ iva inclusa...adesso si trovano anche a 450€...dopo un mesettino circa dall'uscita...!!mica poco..di differenza...
viene da chiedersi cosa potrebbe fare nVidia per colmare questi 2/3 mesi di differenza dal debutto sul mercato della R300...l'unica soluzione è che l'NV30 abbia delle prestazioni talmente elevate che l'R300 lo vede col binocolo...questa sarebbe l'unica maniera per recuperare...ma la vedo difficile...
OverClocK79®
18-10-2002, 14:30
bhe questo è risaputo......ma essere al TOP porta immagine........e prestigio al nome della marca......
ATi con la sua 9700 ha fatto parlare di se......e ha fatto si che molti utenti si orientassero verso di lei........
servono anke a questo le TOP skede.......che poi il mercato lo facciano le 4200 e le 8500le.......è risaputo.....come credo che il mercato dell'anno prossimo sarà fatto dalle 9500 e dalla piccola dell'NV30........
nel settore medio.......mentre nel low nn saprei ankora......diciamo che restano le 9000PRO mezza sola........come le MX altra mezza sola.....insomma chi sta nel settore low prende solo mezze sole.......
credo che come gia ka 8500 sia uscita di prod pure la 4200 lo sarà
BYEZZZZZZZZZZZ
ronthalas
18-10-2002, 14:43
ahah... e io che volevo mettere la R9700 su un TB1100... divento pure disk limited tra un po' :P
mi sa che a natale ci faccio un pensierino....:-)))))
suppostino
18-10-2002, 15:19
Si, potrai giusto pensarle a natale, vista la disponibilità prevista per le memorie DDR II :p.
ehhhmmm....se è vero che l'NV30 viene presentato il 18Novembre e se è vero che monterà le DDRII....altro che disponibilità a Natale! si potrà avere la scheda a Natale già condita con le DDRII....
la storia che le DDRII verranno commercializzate dal 2003 riguarda noi utenti..ma nn certo Nvidia che,se è vero, le ha già ottenute per il suo chip...
qui viene spiegata meglio la situazione sulle DDRII :
http://www.hwzone.it/html/news.php?id=3692
lunaticgate
18-10-2002, 15:38
Se se 1Gh, così avrei una scheda video con una Gpu di frequenza pari alla Cpu....HAHAHAHAHAHAHAH :)
Ma dai con una scheda così si è Cpu limited anche con un PIV 2.5.....io mi 'accontento' della mia 4200 che va un amore!!!!
E poi mica posso ipotecarmi una casa per giocare al massimo del massimo con giochi che non esistono ancora!
Meditate gente!!!!
dotlinux
18-10-2002, 15:45
Guardate che l' NV30 non andrà a contrastare la 9700 ma la futura generazione di ati.
Contro la 9700 c'é la 4600 che nel 50% dei giochi (UT2003 docet) la batte.
Sveglia gente.
Nandozzi
18-10-2002, 16:37
Scusa dotlinux, ma il discorso che tu fai non ha senso. La 4600 è uscita molto molto tempo prima della Ati 9700 e quindi si tratta di 2 GPU di una generazione diversa, mentre l'NV30 è della stessa generazione dell'ATI 9700. Nvidia si riprenderà la leadership, ma non so a quanto le potrà servire dati i prezzi assurdi e la non disponibilità di procesori talmente potenti da poter sfruttare a pieno il suo neonato mostro...
Appunto...tralasciando il fatto che la 9700 è immensamente più potente della 4600 (scusami dotlinux...sai dirmi che logo appare al'avvio di UT2003? per caso quello della Nvidia?....ecco...quindi penso proprio che quello sia il gioco meno adatto a valutare le prestazioni della 9700...) e poi tu ti basi su benchmark DX8...e se ben ti ricordi...con le DX7 la Gef 3 nn è che volasse in confronto alla Gef2 Ultra...son 2 schede di generazioni diverse...e per tanto nn ha senso confrontarle.
Svegliati tu..su...che è meglio...
non vedo l'ra che arrivi gennaio :-D
dotlinux
18-10-2002, 17:31
Se 2 schede hanno prestazioni simili per me sono della stessa generazione (leggi: 4600 e 9700).
X GURU: prova qualche altro gioco!
OverClocK79®
18-10-2002, 17:54
ma cosa state dicendo?
la 9700 e la 4600 sono di 2 generazioni diverse
DX9 e DX8
sono attualmente in competizione solo perchè sono le skede + potenti delle rispettive case......
dotlinx nn so che test hai visto ma a 1600x1200 tutto full dubito che la 4600 sia + veloce della 9700
io ho la 4600 e ho visto girare la 9700 ma nn c'è confronto.....
la 9700 è DX9 e andrà a confrontarsi con NV30 e credo perderà ampiamente dal punto di vista delle prestazioni.......nn per nulla ATI ha già pronto il sul R350
credo che cmq la pagheremo sta NV30
per quello che riguarda la leadership.....bhe kiaro che si parla di prestazioni nn tanto di skede vendute visto che come già detto è la fascia intermedia che fa numero di vedite nn le TOP level :)
CMQ quello che voglio dire è che IMHO ora.....ossia a metà novembre prendersi una 9700 nn ha senso visto cosa uscirà a breve.......
e il fatto di aver fatto uscire una skeda così presto senza applicativi che ne dimostrino la capacità ecc ecc
nn so quanto si sia dimostrata una scelza azzeccata.....
+ che altro è stata + una cosa di marketing ossia far uscire una skeda DX 9 prima di Nvidia....
a DIC credo vedremo le prime skede NV30 nei negozi......anke se cmq si sta parlando di 1ghz per le versioni + grosse......
può essere che la versione intermedia abbia 128mb DDR liscia con mem BGA magari da 750-800mhz e quindi meno costosa.......
è presto per trarre conclusioni ma credo ci sia un bel salto di qualità dalle precendenti....
concludo rispondendo ai soliti che continuamente fanno paragoni stupidi del tipo......mi faccio na vacanza al posto di prendere quella skeda......oppure.....devo vendere la makkina per comprarmela et similare.....
RIPETO: nn ve lo dice il medico di giokare a full detail 1600x1200 AA ecc ecc
se i bastano i dettali bassi e una buona fluidità tenetevi le vostre skede e nn fate i conti in tasca agli altri......che se la prendono di certo possono permettersela ;)
BYEZZZZZZZZZZZZZ
Sig. Stroboscopico
18-10-2002, 18:02
l'unico peccato è se ci vuole davvero un 2800 per sfruttare queste schede... una bella sommetta alla fine...
sigh!
^__^'
halduemilauno
18-10-2002, 18:21
Originariamente inviato da dotlinux
[B]Se 2 schede hanno prestazioni simili per me sono della stessa generazione (leggi: 4600 e 9700).
X GURU: prova qualche altro gioco!
assolutamente no.l'apparteneza a una stessa generazione viene determinata quantomeno dal periodo di uscita delle stesse(con differenze di pochissimi mesi)e dalla fascia di prezzo.
detto questo la 9700 è superiore alla 4600.magari non come qualcuno vuol fare intendere ma la differenza con i filtri attivati è avvertibile.
ZioJimmy
18-10-2002, 18:32
Io ho aspettato, mi son preso la 4400 della asus (deluxe), ad un buon prezzo...tanto con un athlon 1000 mica la sfrutto questa scheda, ne tanto meno una 9700 o una nv30!! L'anno prossimo mi rifaccio la mobo processore e ram, mi godo la scheda con questo nuovo sistema, (di modo da rendere gpu limited e vedere cosa cambia) aspetto ancora un anno e vediamo se varra la pena comperare una nuova scheda video, ovviamente a cavallo del''uscita di quella nuova (per avere i prezzi abbassati)...concordo con nandozzi e altri, quando si dice di aspettare a prendere questi mostri, a causa dei processori "poco potenti"...penso che con questo sistema si riesca a sfruttare al meglio ogni singolo componente del sistema, senza rimpianti e risparmiando qualcosina...che non fa mai male!!
Originariamente inviato da halduemilauno
[B]
assolutamente no.l'apparteneza a una stessa generazione viene determinata quantomeno dal periodo di uscita delle stesse(con differenze di pochissimi mesi)e dalla fascia di prezzo.
detto questo la 9700 è superiore alla 4600.magari non come qualcuno vuol fare intendere ma la differenza con i filtri attivati è avvertibile.
Okkio che parliamo di generazioni in senso tecnologico, non certo temporale. Il GF4 e la Radeon 9700 non sono assolutamente della stessa generazione, il Radeon 9700 è il pioniere delle DX9.
lunaticgate
18-10-2002, 20:55
E' sempre la stessa storia, l'abbiamo visto in passato tante di quelle volte.....la 9700 batte la 4600 (che secondo me non si possono paragonare), la NV30 batterà la 9700, mentre la R350 sarà piu potente ancora o quantomeno con le stesse prestazioni ma con un prezzo competitivo......voglio dire, di "recente" ne è stato il caso della Geforce3 Ti500 e della 8500 e con la 4200 che è la "8500" della Nvidia!!!
Il punto è quello di spendere sempre al momento giusto ma, ho l'impressione che molte persone buttino una 4200 o una 4600 nel cestino, per poter dire io ho la scheda migliore e faccio più FPS con filtri alla ventesima potenza attivati!!!!
Ma dai, spendete bene i vostri soldi, giocate e divertitevi!!!!
halduemilauno
18-10-2002, 21:28
Originariamente inviato da Maury
[B]
Okkio che parliamo di generazioni in senso tecnologico, non certo temporale. Il GF4 e la Radeon 9700 non sono assolutamente della stessa generazione, il Radeon 9700 è il pioniere delle DX9.
esatto è quello che dicevo.le geffo4 e le 9700 sono di generazione diversa.
cdimauro
18-10-2002, 23:16
A questo punto penso che la tecnologia GigaPixel non verrà implementata nell'NV30... Questo perché, grazie ad essa, la banda di memoria richiesta si riduce a circa UN DECIMO (fonte: GigaPixel).
Quindi che senso avrebbe adottare delle costosissime memorie DDR-II da 1Ghz quando basterebbero delle vetuste (ma economicissime) SDR 200Mhz per soddisfare la "fame" delle 8x2 TMU dell'NV30?
psychok9
19-10-2002, 00:04
ragazzi ma che scheda avete visto?! io ho visto una superiorità schiacciante della Radeon 9700 PRO! Comunque quando uscirà l'NV30 uscirà anche l'R350 di ATi e li ne vedremo delle belle ;-) (x quanto mi riguarda solo sui siti, ancora berlusconi non mi chiamo x comprare una doppia cpu XP a 2GHz..e soddisfare la fame di potenza delle gpu in questione!!)
(IH)Patriota
19-10-2002, 10:44
Il problema della cpu credo che lo stiano sottovalutando in molti , a prescindere dalla potenza della GPU (9700 o NV30 che sia) se si e' cpu limited le prestazioni tendono ad allinearsi anche nel caso che tra una scheda e l' altra ci siano notevoli differenze in termini di prestazioni assolute.
Mettete in conto quindi insieme al costo di acquisto della scheda anche il costo di un bel processore , il piu' veloce possibile per la propria piattaforma (con quello che costa ! :)) oppure ci sara' solo un certezza , avere un motore da F1 con la pompa della benzina della 500 !!!! quindi poi che la monoposto NV30 abbia 200 o 300 CV in piu' rispetto alla monoposto ATI non fara' poi cosi' tanta differenza nel vederle sfrecciare a 25Km/h con la pompa della benzina che arranca ! LOL :):D
io dico che almeno ci vorrà qualcosa come 3000 (che siano mhz ho model number non importa..) per sfruttare almeno all'70-75% schede dx9 (9700, r350,nv30 e 31 eccc)
per avere prestazione ottime bisogna aspettare hammer 3500+ e p4 equvalente non so un p4 3,6 ghz (0.9micron)... allora potremmo sparare doom 3 ad oltre 100fps(1280x1024)
:D:D:D:D
Io nn lo sottovaluto il problema della CPU!! adesso ho un Duron 1300 con una GeForce3 Ti200 @ 240/480 comprata a marzo 2002.
Io il PC me lo dovrei proprio rifare ,ma è sicuro che la GeForce3 me la tengo per molti motivi:
-L'ho pagata una sassata e voglio sfruttarla fino all'osso.
-Per adesso sono CPU limited...quando rifarò il pc la GPU dovrà fare da collo di bottiglia.
-se riesco a giocare fluido a 1280x1024 o anche a 1024x768 nn fa differenza con magari filtro attivato e quincunx attivato di certo nn mi vado a prendere un'altra scheda video..
Tutto perchè nn so davvero quale sia il reale limite delle schede video che troviamo da un anno a questa parte ai negozi (quindi compreso anche la mia).
Quando lo troverò allora potrei anche fare l'ipotesi di cambiare sk video...
in altre parole sono pienamente d'accordo e penso pure io di prendere quella linea di comportamento come ZioJimmy sul commento numero #31....
Wing_Zero
19-10-2002, 17:33
ragazzi, la potenza di una sk video nn si vede solo dal suo clock! ma anche dalla'rchitettutra interna...quindi e' abb inutile confrontare puramente la frequenza della geffo 5 con la 9700! cmq la 9700 e' stata proprio unabella delusione! una scheda di nuova generazione(perche' cosi e') che va poco + di una geffo 4 ti 4600 ed in alcuni giochi addirittura sotto, con qursto nn voglio dire che la 9700 nn sia meglio della 4600ma solo che l'aumento di prestazioni e' stato davvero ridotto!!tho! io mi aspettavo almeno un 15000 al 3d amrk tanto per capirci..cmq adesso con l'nv 30 vedrete cosa significa "nuova generazione " di scheda video!!uaz ua z uaz!!!sono sicro che l'nv30 fara' fuoro anche l'r 350!!ciaoz!!
P.S.:
ma l'r350 e l'r 300 a o.13 sono 2 chip diversi vero??
cdimauro
19-10-2002, 20:29
Com'è che ogni giovincello che si iscrive al forum come prima cosa deve sempre sparare delle assurdità... I test che sono stati fatti fra GeForce 4 4600 e Radeon 9700 hanno dimostrato ampiamente e senza ombra di dubbio che quest'ultima è la leader indiscussa nel campo ludico, in particolare alle alte risoluzioni, con tutti gli effetti attivati e con Antialiasing e filtro anisotropico.
Ogni altra affermazione che asserisca il contrario è mendace e dettata solamente da motivazioni personali di stampo fideista e dall'incapacità di accettare la superiorità (attuale) della marca rivale.
Di commenti inutili di questo tipo, il forum ne è già pieno: se non hai nient'altro di concreto da dire, torna pure a casa a fare i compiti e non far perdere del tempo (prezioso) a chi vuole arricchire il proprio bagaglio culturale...
Comunque, giusto per rispondere alle tue affermazioni.
1) Come è già stato detto più volte, i benchmark sintetici come il 3DMark sono INUTILI per misurare le performance di un sistema, perché in circolazione esistono decine di engine che hanno prestazioni molte diverse fra loro sullo stesso hardware. Purtroppo c'è gente che la notte conta i punti del 3DMark invece delle pecore per addormentarsi...
2) Fra NV30 e R300, ma specialmente con la R350 con cui dovrà confrontarsi, le differenze non saranno così marcate. In ogni caso, tra pochi giorni ne avremo la dimostrazione. Inutile perdere tempo a parlare della solita aria fritta che ormai risulta alquanto indigesta: sono stati già scritti fiumi di parole in merito.
3) R300 e R350 rimarranno ancora a 0,15u per un po' di tempo: almeno finché il processo a 0,13u non sarà abbastanza maturo da garantire delle rese ottimali, e quindi economicamente vantaggiose. Questo all'ATI hanno avuto la fortuna o l'intelligenza di capirlo, mentre qualcun altro no: infatti i prezzi delle future schede a 0,13u saranno stratosferici (la resa dei primi wafer sarà decisamente scarsa).
OK, è ora di andare e nanna... ;)
(IH)Patriota
19-10-2002, 21:11
Il bello è che l' NV30 non è ancora uscito e gia' c'è qualche eroe che sa gia' se andra' piu' o meno della 9700 anzi sa' addirittura che sara' MOOOOLTO meglio della 9700 , non è che mi dai anche qualche numero del lotto ? :)
Nandozzi
19-10-2002, 21:27
Io sono totalmente d'accordo che la 9700 da una pista alla 4600 e fin qui non trovo che ci sia nulla di strano perchè in fondo sono due generazioni diverse. Scusate vi ricordate quando è uscita la 4600 ? E' chiaro che una GPU uscita da 1 mese abbondante vada molto meglio ed è stupido affermare il contrario. Io continuo sempre e cmq a sostenere il vecchio adagio dell'aspettare a comprare l'ultima novità e se si hanno i soldi da spendere, la si può anche comprare, ma dopo non ci si deve lamentare dei soldi che la si è pagata. Cmq se quanto sentito in rete dovesse corrispondere a realtà, l'NV 30 sarà uno spacca-ATI !!! A me personalmente non interessa molto questa battaglia perchè io continuo a tenermi la mia fida geffo2 e ringrazio sentitamente tutti quelli che si comprano le nuove GPU all'uscita e fanno sì che calino di prezzo sempre più in fretta le precedenti !!!
ErPazzo74
19-10-2002, 22:23
Devo dire la mia non resisto :D....
Mi son letto tutti i messaggi e ho notato una cosa preoccupante: C'E' QUALCUNO CHE RIESCE AD AFFERMARE CHE LA 9700 E' SOLO POCO SUPERIORE RISPETTO ALLE 4600 :confused:.
Da questo ne ricavo che la parola obiettività non esiste nel vocabolario di qualcuno....
Da quel che avevo sentito io anche l'R300 in futuro dovrebbe venir prodotta a .13 ed inoltre con controller DDRII e li si che se ne vedranno delle belle....
Penso anche che l'NV30 sarà superiore alla 9700 ma non riuscirà a distruggerla, infatti non dimentichiamoci il cambio di progetto della NVidia poco tempo fà forse xché era preoccupata dalle elevate prestazioni della rivale.
Commentando la news direi che 1Ghz son veramente tanti ma che sicuramente li pagheremo noi :(
Forse la versione economica sarà + appetibile ma costerà sempre troppo per i miei gusti....in compenso le GEForce 4 caleranno e di molto per cui non vedo l'ora, mi sà che ad anno nuovo sarà periodo d'acquisti ;)
Gohansupersaiyan4
20-10-2002, 18:50
Nei giochi che usano vertex e pixel shaders, la cpu non lavora per la grafica, e non ha più senso parlare di cpu limited, limited di che cosa se non è la cpu che lavora ?
E' il vertex shaders che si occupa della gestione dei poligoni...basta vedere l'x box che ha giochi spettacolari che su pc forse gli si avvicinano solo Doom3...
Doom3 appunto li conterà la scheda grafica, la cpu servirà ad altre cose...
Ciaaaooo !
come vi incazzate...
ma che vi frega compratevi quello che vi piace di più!
io personalmente prendo nv30 ma non è detto che la radeon 9700 non sia un mostro.
cdimauro
20-10-2002, 21:00
Originariamente inviato da Gohansupersaiyan4
[B]Nei giochi che usano vertex e pixel shaders, la cpu non lavora per la grafica, e non ha più senso parlare di cpu limited, limited di che cosa se non è la cpu che lavora ?
E' il vertex shaders che si occupa della gestione dei poligoni...
Guarda che stai commettendo un grosso errore: la CPU ha il non indifferente compito di calcolare l'intelligenza dei nemici (e quindi le loro azioni), oltre a rilevare l'input del giocatore, e in base a queste nuove informazioni modificare, traslare e/o ruotare TUTTI gli oggetti della scena, per poi spedirli alla GPU (che dovrà renderizzarli).
Tutto il resto, ovvero il rendering vero e proprio e l'applicazione dei più svariati effetti sui poligoni viene fatto dalla GPU, ormai. Per fortuna... :)
[B]basta vedere l'x box che ha giochi spettacolari che su pc forse gli si avvicinano solo Doom3...
Uff. Sempre a confrontare le console coi PC: sono due cose diverse! Il numero di poligoni elaborati e gli effetti dei giochi sui PC è nettamente superiore rispetto a quelle delle console, perché queste ultime hanno dei limiti molto più marcati: memoria inferiore (in particolare quella video), CPU meno potente e visualizzazione su TV (quindi 640x512 massimo o 704x576 in overscan). Con questi limiti è chiaro che difficilmente vedremo dei giochi che arrivano ad elaborare 20 o più milioni di poligoni al secondo e con una caterva di effetti: non avrebbe senso.
Facendo qualche rapido calcolo, scopriamo che a 704x576 x 25 fotogrammi al secondo (risoluzione visibile massima del sistema PAL), abbiamo un totale di 10.137.600 punti da elaborare al secondo. Per cui arrivare a 10 milioni di poligoni al secondo su queste console sarebbe decisamente fuori di testa: come rapporto avremmo un poligono per ogni pixel.
Per chiarire ancora meglio una cosa: se devo renderizzare una sfera su una console, è inutile che la costruisca con 10 mila triangoli: ne basterebbero già mille per ottenere una buona resa, perché la risoluzione televisiva è quella che è (ed è pure interlacciata :P)...
[B]
Doom3 appunto li conterà la scheda grafica, la cpu servirà ad altre cose...
Ciaaaooo !
La CPU servirà comunque, come ho già detto prima... ;)
L'unica cosa che, ai giorni d'oggi, può realmente sgravare la mole di calcoli della CPU (ma anche delle schede video), sarà l'utilizzo delle superfici curve e del displacement mapping hardware, perché ridurranno considerevolmente il numero di vertici/poligoni da elaborare ad ogni cambio di scena, e per di più miglioreranno nettamente la resa visiva.
Ma ci vorrà ancora molto tempo... :)
Gohansupersaiyan4
20-10-2002, 21:29
Dunque, xbox supporta il progressive scan per avere un segnale non interlacciato, e ci sono giochi che già usano la 720p...la risoluzione varia dalla 640 x480 alla 1920 x 1080 e a parte questo, hai detto una enorme imprecisione : numero di poligoni superiore su pc ?
ma non farmi ridere ma se ci sono solo tutti giochi dx 7 se non qualcuno dx8 mentre su xbox sono tutti dx 8 !!!
Basta prendere Halo2, panzer dragon oorta muove 25 milioni di poligoni al secondo, fai tu...
Ok, la cpu fa altro ma vuoi mettere tutta la potenza
della cpu dedicata solo ad altre cose e non alla grafica ? ti assicuro che basta eccome...
Un altra, cosa, la vuoi sapere quel'è la percentuale di occupazione della cpu a detta di un programmatore in una sua intervista su un gioco x xbox ?
Di meno del 5 % ....ma per piacere, se ci sono motori che sfruttano bene la scheda video, la cpu non è importante...
Ciao !
Gohansupersaiyan4
20-10-2002, 21:33
Poi perchè non fare confronti console pc ?
Su xbox si può vedere cosa può fare una geforce4 abanzata ben sfruttata , spero usciranno anche su pc tanti titoli directx 8...
Gohansupersaiyan4
20-10-2002, 21:52
Riguardo al discorso della risoluzione, non centra il numero di poligoni perchè più numerosi sono più piccoli sono e più dettaglio si ha , un poligono può anche essere più piccolo di un pixel...
Ciao !
ErPazzo74
20-10-2002, 22:26
Ciao sarei curioso di scoprire come ottiene l'Xbox una risoluzione di 1920....
Riguardo ai poligoni grandi - di 1 pixel direi che è inutile renderizzarli tanto vale fare 1 puntino colorato :D
Comunque bisognerebbe distinguere tra poligoni che entrano nella pipeline di rendering e quelli che poi ne escono.....ma non agitiamoci tanto ;)
cdimauro
21-10-2002, 06:26
Originariamente inviato da Gohansupersaiyan4
[B]Dunque, xbox supporta il progressive scan per avere un segnale non interlacciato, e ci sono giochi che già usano la 720p...la risoluzione varia dalla 640 x480 alla 1920 x 1080
I giochi vengono fatti tenendo conto che le console verranno collegate al 99% dei casi ad una normalissima tv (PAL o NTSC che sia). Secondo te le software house perdono tempo a realizzare dei giochi che sfruttano al meglio la risoluzione offerta dall'HDTV? Sarebbe da pazzi: maggior tempo di sviluppo = maggior investimento = guadagni posticipati (e ridotti).
Le software house non sono certo degli enti di beneficenza...
[B]e a parte questo, hai detto una enorme imprecisione : numero di poligoni superiore su pc ?
ma non farmi ridere ma se ci sono solo tutti giochi dx 7 se non qualcuno dx8 mentre su xbox sono tutti dx 8 !!!
Si vede che hai parecchia esperienza nel campo dei giochi. Non dico nella programmazione, ma nella pratica comune dovresti sapere che non sono certo le DirectX 7 ad impedire di avere giochi che tirano fuori decine di milioni di poligoni al secondo. E i giochi più recenti, che ancora utilizzano le DirectX 7 (anche se alcuni usano le 8, ma non le sfruttano affatto come si deve), hanno superato già da tempo la decina di milioni di poligoni al secondo...
[B]
Basta prendere Halo2, panzer dragon oorta muove 25 milioni di poligoni al secondo, fai tu...
Notevole, non c'è che dire: ma per godertelo appieno devi avere una HDTV, perché su una comune televisione tutto quel dettaglio è assolutamente sprecato.
Sarebbe come pretendere di giocare a Unreal Tournament 2003 a 640x480... ;)
[B]
Ok, la cpu fa altro ma vuoi mettere tutta la potenza
della cpu dedicata solo ad altre cose e non alla grafica ? ti assicuro che basta eccome...
Francamente ho i miei dubbi... Prendendo quel Panzer Dragon di cui sopra, per elaborare 25 milioni di poligoni al secondo, la potenza richiesta è notevole. Infatti, se per ogni punto applichiamo la classica matrice di trasformazione (per la traslazione, rotazione e il ridimensionamento) 4x4, abbiamo qualcosa come una decina di moltiplicazioni (poi ci sono anche le somme e qualche divisione, ma lasciamo stare ;)) in virgola mobile per ogni punto, per cui il Pentium 3 a 700Mhz di cui l'X-Box è dotato dovrebbe elaborare circa 250 milioni di moltiplicazioni al secondo (il limite teorico delle SSE, in questo caso, è di 1400 milioni di operazioni al secondo: ma per le moltiplicazioni c'è sempre da considerare la latenza e il throughput).
Insomma, sono scettico sul "consumo ridotto" di potenza della CPU... ;)
[B]
Un altra, cosa, la vuoi sapere quel'è la percentuale di occupazione della cpu a detta di un programmatore in una sua intervista su un gioco x xbox ?
Di meno del 5 % ....ma per piacere, se ci sono motori che sfruttano bene la scheda video, la cpu non è importante...
Ciao !
Il 5% per un Pentium 3 a 700Mhz è veramente poco e mi sembra alquanto strano... Bisogna vedere quanti poligoni al secondo riesce a generare... ehehehe ;)
L'X-Box ha il vantaggio che, grazie alla memoria unificata, non deve trasferire tutti i vertici e la display list in generale tramite il bus AGP alla scheda video. E questo è sicuramente una buona cosa, ma non rappresenta certo la panacea... :)
cdimauro
21-10-2002, 06:36
Originariamente inviato da Gohansupersaiyan4
[B]Poi perchè non fare confronti console pc ?
Perché hanno due target diversi e quindi due modi diversi di sviluppare i giochi (vedi messaggio precedente)... Su PC è sempre più dominante la qualità grafica, per cui la risoluzione maggiore, l'antialiasing, il filtro anisotropico più tutta una serie di effetti grafici sono ormai divenuti indispensabili. E sono tutte cose che richiedono una potenza e una banda enorme che nessuna console attuale si sogna di raggiungere...
[B]
Su xbox si può vedere cosa può fare una geforce4 abanzata ben sfruttata , spero usciranno anche su pc tanti titoli directx 8...
Vedi sopra. Fra GeForce 4 e X-Box la differenza va tutta a vantaggio della prima. Lasciando perdere le caratteristiche hardware, la differenza la fanno il clock maggior e la maggior banda della prima. Ed in particolare la banda, lo sai bene, oggi è, forse, il fattore più importante...
Pensi che i 6,4GB/s di banda di memoria unificata dell'X-Box possa competere con i 10GB/s della sola GeForce 4? Assolutamente no.
Ciò non toglie che l'X-Box (ma ci metto pure il Gamecube) è sicuramente un'ottima console e offre un dettaglio grafico notevole. Ma lasciamo perdere i confronti col PC...
cdimauro
21-10-2002, 06:43
Originariamente inviato da Gohansupersaiyan4
[B]Riguardo al discorso della risoluzione, non centra il numero di poligoni perchè più numerosi sono più piccoli sono e più dettaglio si ha , un poligono può anche essere più piccolo di un pixel...
Ciao !
Quel discorso serviva a farti capire che non ha senso avere decine di milioni di poligoni al secondo quando poi la risoluzione è così scarsa: il maggior dettaglio raggiunto non è "percepibile", perché in un solo pixel da renderizzare magari si sono sovrapposti 5, 6 o più pixel di altrettanti poligoni. Uno spreco enorme, insomma (in particolare di banda, perché ogni pixel di ogni poligono deve essere interamente elaborato: le tecniche di rimozione dei poligoni non visibili non sono certo paragonabili a quelle disponibili per le schede grafiche del PC...)
Questo invece diventa rilevante sul PC, perché le risoluzioni sono decisamente maggiori e quindi il maggior o minor numero di poligoni al secondo è palese agli occhi del giocatore...
cdimauro
21-10-2002, 06:48
Originariamente inviato da ErPazzo74
[B]Ciao sarei curioso di scoprire come ottiene l'Xbox una risoluzione di 1920....
Se non ricordo male l'X-Box ha l'uscita VGA, quindi... ;)
[B]
Riguardo ai poligoni grandi - di 1 pixel direi che è inutile renderizzarli tanto vale fare 1 puntino colorato :D
Quindi uno sprite pixel sarebbe sufficiente. In effetti le schede grafiche attuali riescono ad elaborarne anche 15 milioni al secondo... E non sono poligoni... ;)
[B]
Comunque bisognerebbe distinguere tra poligoni che entrano nella pipeline di rendering e quelli che poi ne escono.....ma non agitiamoci tanto ;)
Bisogna vedere quali tecniche di rimozione dei poligoni nascosti utilizzano le console. Da un po' di tempo le schede grafiche per PC hanno adottato diverse tecniche e algoritmi, ma sulle console è difficile che ne esistano di buoni (considerando poi che l'X-Box è uscito un anno fa... ;))
psychok9
21-10-2002, 10:24
LOL... stiamo perdendo la testa :D
"...per cui la risoluzione maggiore, l'antialiasing, il filtro anisotropico più tutta una serie di effetti grafici sono ormai divenuti indispensabili"
Scherziamo?!Ci passi che sono dei bei effetti, ma mica mi cambiano la vita o il divertimento che ho giocando con quel determinato gioco?! Possiamo divertirci anche giocando a 800x600x16!
Ecco.. E ora qualcuno mi spieghi che differenza vede nel giocare a Ut2003 a 1280x1024 in confronto a 1024x768... Io ci gioco su un 19" trall'altro... Se poi si considera che nel gioco non credo si abbia molto tempo per ammirare il FSAA... Mah... Cmq mentre voi parlate di P5 20ghz + Nv429^2 io mi godo il sudetto giochetto alla seconda risoluzione su un K7 650 e Gf4 mx440 con tutti i dettagli attivati... E non fa una piega... Chissà.. Magari a qualcuno gli occhi saranno talmente andati che a 300fps sembrerà che scatti... Beh, allora si che bisogna cambiare pc... Eh beh ragà... Poi un piccolissimo appunto... Volete giocare? Beh, consolle, visto che con 300€ ogni 4 anni giocate da Dio tutti quanti... Poi è ovvio che se volete fare gli sboroni........
ZioJimmy
21-10-2002, 15:16
x seccio
Mi fa piacere che c sia qualcuno che la pensi come me!
Grazie
Ciao
Wing_Zero
21-10-2002, 19:31
Innanzitutto se leggete bene il mio post vedrete che ho affermato che la 9700 e' superiore la 4600 solamente che mi spetavo un incremento superore come avevo gia' specificato: infatti pur non basandomi sul solo 3d mark(che e' attualmente il bench + affidabile) io mi aspettavo che la 9700 avesse degli incrementi prestazionali maggiori di quelle che ha adesso!
io non so che l'nv 30 pachera' la 9700?? va bene!!! ma voi come fate a sapere che le differenze "non saranno cosi' marcate" ???
altra cosa: e' solamente un comportamento da ipocriti pensare che uno solo perhce' e' un ragazzo coem dite voi ne capisca di meno... E' ki vi adetto che un bambino di 14 ani non possa avere + esperienza di voi???(io personalmente sono maggiorenne e vaccinato!)
Cmq e' initule prolungare qeste polemiche! ssenno si rischia di arrivare alla solita catena di post per la serie ATI rulez o NVIDIA rulez! cosa che personalemte non sopporto!!CMQ aspettiamo e vediamo che hai ragione!! ;) ;) ;) ;) ;) ;) ;)
psychok9
21-10-2002, 21:40
Ha incrementi lievi perché è CPU LIMITED e poi sai bene che lo stesso 3DMark è molto cpu dipendente...
Se infatti vai a fare un test con FSAA (l'unico modo di renderlo + pesante) e a risoluzioni esasperate vedi che non batte la GF4 4600... ma la STRABATTE!
cdimauro
21-10-2002, 22:00
Originariamente inviato da psychok9
[B]LOL... stiamo perdendo la testa :D
"...per cui la risoluzione maggiore, l'antialiasing, il filtro anisotropico più tutta una serie di effetti grafici sono ormai divenuti indispensabili"
Scherziamo?!Ci passi che sono dei bei effetti, ma mica mi cambiano la vita o il divertimento che ho giocando con quel determinato gioco?! Possiamo divertirci anche giocando a 800x600x16!
Sarà, ma dopo aver visto MotoGP, sullo stesso hardware, prima su una GeForce 2MX e dopo su una GF4 Ti4200, posso dire che "il mondo è cambiato". Non c'è paragone. Il dettaglio grafico è cambiato così tanto a livello qualitativo da farlo sembrare un altro gioco.
Certamente ci si può dirvertire ugualmente anche su un hardware più modesto, ma la percezione del realismo è diversa...
E' questo ciò a cui mi riferivo... :)
cdimauro
21-10-2002, 22:28
Originariamente inviato da Wing_Zero
[B]Innanzitutto se leggete bene il mio post vedrete che ho affermato che la 9700 e' superiore la 4600 solamente che mi spetavo un incremento superore come avevo gia' specificato:
Il tuo post l'ho letto benissimo (prima di scrivere una replica così pesante leggo sempre il messaggio diverse volte), e nel giro di una riga hai asserito due cose diverse. Infatti prima della frase che hai riportato qui sopra, hai scritto che "cmq la 9700 e' stata proprio unabella delusione! una scheda di nuova generazione(perche' cosi e') che va poco + di una geffo 4 ti 4600 ed in alcuni giochi addirittura sotto".
Insomma vedi di metterti d'accordo prima con te stesso. E soprattutto, prima vai controllarti bene i test che sono stati fatti sui siti più disparati, che dimostrano ESATTAMENTE il contrario di ciò che hai detto, sia prima che dopo...
[B]infatti pur non basandomi sul solo 3d mark(che e' attualmente il bench + affidabile)
E due. Dove sta scritto, scusa? Ripeto ancora una volta: i migliori benchmark sono I GIOCHI REALI, con i diversi engine disponibili a oggi, e non un benchmark sintetico (a meno che tu non ti diverta a giocare al 3DMark... ;))
[B]io mi aspettavo che la 9700 avesse degli incrementi prestazionali maggiori di quelle che ha adesso!
Per fortuna t'hanno già risposto in merito. Comunque, FATTI UN GIRO nei vari siti dove sono presenti recensioni sulla 9700 e poi ne riparliamo... ;)
[B]
io non so che l'nv 30 pachera' la 9700?? va bene!!!
Ah, finalmente qualcosa di sensato... :)
[B]
ma voi come fate a sapere che le differenze "non saranno cosi' marcate" ???
In base a tutte le informazioni che sono state pubblicate in merito: sono mesi che stiamo dietro ad ogni singola notizia in cui viene svelato un particolare in precedenza sconosciuto. Personalmente, in base a queste informazioni, all'hardware uscito in precedenza e alla mia esperienza e conoscenza acquisita, ritengo che non ci saranno grosse differenze fra le due GPU.
Sono delle mie supposizioni e comunque aspetto l'arrivo dell'NV30 per confermarle o ricalibrarle...
Sicuramente non mi baso sul fascino di una marca per scrivere dei messaggi che la esaltano e gettano fango sulla concorrenza. Diciamo che preferisco spendere meglio il mio tempo libero... ;)
[B]
altra cosa: e' solamente un comportamento da ipocriti pensare che uno solo perhce' e' un ragazzo coem dite voi ne capisca di meno... E' ki vi adetto che un bambino di 14 ani non possa avere + esperienza di voi???(io personalmente sono maggiorenne e vaccinato!)
Io giudico una persona in base al contenuto dei messaggi che scrive: me ne frega poco e niente se dall'altra parte c'è un maggiorenne o un ragazzino. Prima di scrivere delle sciocchezze è bene documentarsi, tanto più se non si è superato lo scoglio dei 18 anni.
Se in quel messaggio che ho scritto parlavo di un ragazzino che deve tornare sui banchi di scuola, è perché è questa l'impressione che mi hai dato. Basta leggerlo. Sembra di tornare ai tempi delle medie quando facevamo le gare per vedere chi ce l'aveva più lungo.
Secondo te come avrei dovuto giudicare uno che, a parte quello che ha scritto, mi chiude un messaggio con "cmq adesso con l'nv 30 vedrete cosa significa "nuova generazione " di scheda video!!uaz ua z uaz!!!sono sicro che l'nv30 fara' fuoro anche l'r 350!!ciaoz!!"? Come un adulto o un ragazzino? Fa un po' tu...
[B]
Cmq e' initule prolungare qeste polemiche! ssenno si rischia di arrivare alla solita catena di post per la serie ATI rulez o NVIDIA rulez! cosa che personalemte non sopporto!!CMQ aspettiamo e vediamo che hai ragione!! ;)
Ecco perché t'ho scritto quel messaggio: sono ARCISTUFO di leggere le solite azzuffate fra sostenitori della nVdia e dell'ATI. I primi, in particolare, in questo periodo rompono particolarmente perché non vogliono accettare il fatto che la loro prediletta ha perso clamorosamente lo scettro di GPU più potente...
Insomma, è come quando Rocky dice "non fa male, non fa male": ma a chi lo vai a raccontare? ;) Le randellate fanno male, eccome! ;););) Basta saperle incassare onestamente e dignitosamente.
Al prossimo round, quando arriverà l'NV30, vedremo se ci sarà una batosta o una vittoria ai punti (non del 3DMark! ;))...
Karandas
21-10-2002, 23:27
un commento, qualcuno dice che bisogna avere un processorone per sfruttare un nv30 o una 9700, hmm, attivando antialias e anisitropo al massimo non si dovrebbe sfruttare tutto quello che vanza della scheda?(visto che son calcoli a sole spese della gpu?) ^_^
ErPazzo74
22-10-2002, 00:26
Originariamente inviato da cdimauro
....xtra cut........
L'X-Box ha il vantaggio che, grazie alla memoria unificata, non deve trasferire tutti i vertici e la display list in generale tramite il bus AGP alla scheda video. E questo è sicuramente una buona cosa, ma non rappresenta certo la panacea... :)
Guarda riguardo alle display list il vantaggio è nullo infatti le schede nvidia dispongono da qualche anno a questa parte di una cache (di - di 20 posizioni) in cui attraverso l'uso di una libreria disponibile agli Nvidia Developer risiedono sempre i vertici che servono x cui secondo Nvidia si può tranquillamente trascurare l'uso di display list.....
Magari si possono utilizzare per altre cose tipo sequenze di cambi di stato etc.....
Vantaggio enorme ma relativo invece è quello che per operazioni "rare" tipo lettura di una parte del buffer o renderizzazione in 1 buffer in memoria etc.....avere memoria unificata e non dover passare per l'AGP è un vantaggio ENORME e la differenza è mostruosa......
D'altro canto però queste operazioni sono lente appunto xché usate raramente e quindi nessuno si è interessato mai x renderle veloci........
ErPazzo74
22-10-2002, 00:42
Già cdimauro ti ha fatto notare molte incongruenze e ti ha risposto x cui aggiungo solamente che forse abbiamo visto test diversi!!!! Io ho visto test a 1280 o 1600 in cui la differenza è abbissale tra ATI e NVIDIA, 2/3 o + volte + veloce la 9700. Se poi tu ti compri una scheda video da 400€ come la 4600 x giocarci a 1024 (come io faccio ora col Ge Force MX ;)) solo per dire che così vai quanto la 9700, fai pure. Aggiungo che io stesso sono possessore di una Nvidia di cui non mi sono mai lamentato e di cui sono pienamente soddisfatto, i driver a volte mi hanno dato problemi ma mi è sempre bastato disintallare e attendere versioni migliori....Inoltre gli OTTIMI driver x linux mi legano attualmente esclusivamente alla Nvidia (con rammarico xché vorrei provare le ATI :().
Per cui io non sono 1 tifoso come tu invece dimostri dai tuoi post. Oltretutto non essendo io possessore di nessuna delle 2 schede in questione direi di essere super partes.
Quel che io scrivo in un post è solo l'espressione del mio pensiero e lo esprimo in base alla mia esperienza e in base alle mie conoscenze informatiche e di grafica 3D. Non avrò la palla di vetro ma ho sicuramente il diritto di esprimere quel che penso (e non di dire delle verità) e di vedere cosa ne pensano gli altri utenti del forum.
Ciao e alla prox...........;)
cdimauro
22-10-2002, 06:32
Originariamente inviato da Karandas
[B]un commento, qualcuno dice che bisogna avere un processorone per sfruttare un nv30 o una 9700, hmm, attivando antialias e anisitropo al massimo non si dovrebbe sfruttare tutto quello che vanza della scheda?(visto che son calcoli a sole spese della gpu?) ^_^
Mah, guarda, ogni giorno che passa sento parlare sempre più spesso di "cpu limited" nei test delle schede grafiche, come se si trattasse di una cosa grave...
Ebbene, penso che questo concetto sia difficilmente applicabile a chi, oggi, compra una scheda per giocarci, perché se su un Athlon XP 1600+, che costa una miseria, si riescono ancora a fare 150 fps invece di 300 a Quake 3 su una Ati 9700, o 100 fps invece di 200 a Unreal Tournament 2003, non penso che possa fregare di meno a qualcuno se poi gioca a 1600x1280 con AA4x, filtro anisotropico (per dire), e tutti gli effetti attivati...
Tra l'altro, giocando alle alte risoluzioni e con tutti gli annessi e connessi, il lavoro si sposta sempre di più dalla parte della scheda grafica. Infatti il calcolo dell'intelligenza artificiale dei personaggi e di tutta la geometria della scena che cambia, che è sempre a carico della CPU, mi pare rimanga invariato perché la quantità di poligoni da elaborare per ogni frame generato è sempre la stessa...
Insomma, i frame al secondo generati sono ben più che sufficienti per godersi un gioco, e alla fine non è proprio questo ciò che conta?
Con l'Amiga godevo con i giochi che arrivavano a 50 fps, e un po' storcevo il naso con quelli che andavano a 25 a causa del "tremolio" delle immagini, ma oggi la situazione mi pare LEGGERMENTE cambiata... eheheeh ;)
cdimauro
22-10-2002, 06:42
Originariamente inviato da ErPazzo74
[B]
Guarda riguardo alle display list il vantaggio è nullo infatti le schede nvidia dispongono da qualche anno a questa parte di una cache (di - di 20 posizioni) in cui attraverso l'uso di una libreria disponibile agli Nvidia Developer risiedono sempre i vertici che servono x cui secondo Nvidia si può tranquillamente trascurare l'uso di display list.....
Magari si possono utilizzare per altre cose tipo sequenze di cambi di stato etc.....
Guarda, mi sembra alquanto strano, perché per ogni fotogramma elaborato la CPU genera una lista di vertici e una display list, che comunque dovranno essere "passate" alla scheda grafica tramite bus AGP, per poterli leggere ed elaborare la scena. Quel che dici mi sembra più un discorso di caching effettuato dopo aver letto (dalla memoria video) almeno una volta la display list.
Magari mi sbaglio, ma mi pare che la situazione reale sia quella che ho descritto... :)
[B]
Vantaggio enorme ma relativo invece è quello che per operazioni "rare" tipo lettura di una parte del buffer o renderizzazione in 1 buffer in memoria etc.....avere memoria unificata e non dover passare per l'AGP è un vantaggio ENORME e la differenza è mostruosa......
Eh, l'Amiga ha fatto scuola un po' in tutti i settori... Prima il PC ha scoperto il Plug & Play e il bus PCI che configura le risorse delle varie schede (mai parlare di Autoconfigurazione: è una tecnologia brevettata dalla Commodore! ;)), adesso vediamo l'utilizzo di memoria unificata dove CPU, GPU, APU, e chi più ne ha più ne metta, si collegano alla memoria per attingere ai dati che gli servono... ;)
[B]
D'altro canto però queste operazioni sono lente appunto xché usate raramente e quindi nessuno si è interessato mai x renderle veloci........
Sul PC effettivamente è come dici tu: d'altra parte, con il continuo aumentare della memoria video s'è preferito caricare tutto in quest'ultima e cercare di effettuare tutte le elaborazioni in locale. E chi gli può dare torto? E' una soluzione ottimale e poco dispendiosa... :)
ErPazzo74
22-10-2002, 08:17
Forse non mi ricordo bene l'ho letto due mesi fà, comunque questo è il pezzo riguardante quel che ti dicevo:
"----------
Coding Tip
----------
When rendering using the hardware transform-and-lighting (TnL) pipeline or vertex-shaders, the GPU intermittently caches transformed and lit vertices. Storing these post-transform and lighting (post-TnL) vertices avoids recomputing the same values whenever a vertex is shared between multiple triangles and thus saves time. The post-TnL cache increases rendering performance by up to 2x.
Because the post-TnL cache is limited in size, taking maximum advantage of it requires rearranging triangle rendering-order. The easiest way to rearrange triangle-order for the post-TnL cache is to use the NVTriStrip library (.LIBs and source are available for free: http://developer.nvidia.com/view.asp?IO=nvtristrip_library).
If you are interested in exploring the performance characteristics of the post-TnL cache yourself, here are the details: The post-TnL cache is a strict First-In-First-Out buffer, and varies in size from effectively 10 (actual 16) vertices on GeForce 256, GeForce 2, and GeForce 4 MX chipsets to effectively 18 (actual 24) on GeForce 3 and GeForce 4 Ti chipsets. Non- indexed draw-calls cannot take advantage of the cache, as it is then impossible for the GPU to know which vertices are shared.
The following example explores how these restrictions translate into optimally rendering a 100x100 vertex mesh. The mesh needs to be submitted in a single draw-call to optimize batch- size. The draw-call must be with an indexed primitive-type (see above), either strips or lists -- the performance difference between strips and lists is negligible when taking advantage of the post-TnL cache. For illustration purposes, our example uses strips.
Rendering the mesh as 99 strips running along each row of triangles and stitching them together into a single strip with degenerate triangles only marginally takes advantage of the post-TnL cache. Only two vertices in each triangle hit the post-TnL cache (i.e., one vertex is transformed and lit per triangle).
Let's limit the length of each row-strip to at most 2*16 = 32 triangles. The mesh thus separates into ceil(99/16) = 7 columns of strips, each no longer than 32 triangles. Rendering all row-strips in column 0 first, from top to bottom and connected via degenerate triangles, allows an 18 entry post-TnL cache to store not only the last two vertices for each triangle but also the whole top row of vertices for each row-strip. Thus, only 1 vertex for every 2 triangles needs to be computed. For the vertices to be in just the right order such that the top row of vertices is in the post-TnL cache, the top-row of vertices of each column should be sent as a list of degenerate triangles."
Gohansupersaiyan4
22-10-2002, 13:14
Allora come detto tante volte dai programmatori se un gioco usa vertex e pixel shaders, non è la cpu a dover gestire la grafica...la prova di questo si ha guardando i giochi per xbox...milioni di poligoni al secondo, e cpu libera di dedicarsi ad altre cose...ora ho fatto l'esempio dell' xbox perchè ha tanti giochi dx8...per la risoluzione, in usa le HDTV sono molto diffuse, e tramite il cavo component supporta le risoluzioni delle HDTV , ci sono già dei giochi che le supportano...
Ciao !
cdimauro
22-10-2002, 21:55
Originariamente inviato da ErPazzo74
[B]Forse non mi ricordo bene l'ho letto due mesi fà, comunque questo è il pezzo riguardante quel che ti dicevo:
"----------
Coding Tip
----------
When rendering using the hardware transform-and-lighting (TnL) pipeline or vertex-shaders, the GPU intermittently caches transformed and lit vertices. Storing these post-transform and lighting (post-TnL) vertices avoids recomputing the same values whenever a vertex is shared between multiple triangles and thus saves time. The post-TnL cache increases rendering performance by up to 2x.
[...]
Infatti, se leggi attentamente noti che la GPU effettua il caching dei vertici, che comunque devono essere già caricati nella memoria video... :)
cdimauro
22-10-2002, 22:15
Originariamente inviato da Gohansupersaiyan4
[B]Allora come detto tante volte dai programmatori se un gioco usa vertex e pixel shaders, non è la cpu a dover gestire la grafica...la prova di questo si ha guardando i giochi per xbox...milioni di poligoni al secondo, e cpu libera di dedicarsi ad altre cose...ora ho fatto l'esempio dell' xbox perchè ha tanti giochi dx8...
Guarda, non voglio sembrare il solito bastian contrario, ma questo discorso non regge. Se così fosse, sull'X-Box sarebbe sufficiente anche 486 DX 100 per gestire "tutto il resto". Perché se la GPU si occupa interamente della grafica e l'APU dell'audio, alla CPU rimane solo da calcolare l'intelligenza dei nemici e da comunicare alla GPU il nuovo punto di vista della scena e le nuove posizioni dei nemici. Che altro dovrebbe fare? Niente, visto che con la memoria unificata ogni unità specializzata trova già tutto a disposizione.
Nella realtà dei fatti, se prendi una GeForce4 4200, non puoi pretendere di far girare Unreal Tournament 2003 al massimo del dettaglio su una CPU qualunque. E la differenza, se è veramente tutto gestito dalla GPU, non dovrebbe esserci fra una CPU e un'altra, perché con le DirectX 8.0+ e la GPU "fac totum" tutto sarebbe a carico di quest'ultima, che lavorerebbe sempre e comunque nella sua velocissima (più di quella dell'X-Box) memoria video...
Sappiamo tutti che non è così e che la CPU, per forza di cose, svolge un ruolo non indifferente nella generazione della grafica. Non mi puoi venire a dire che l'X-Box è un discorso a sé stante, perché la CPU è un banalissimo (ormai) P3 a 700Mhz, e la GPU è anche più scarsa delle GF4 4200 (e con meno banda per la memoria video, per giunta condivisa con tutto il resto).
Insomma, per chiudere il discorso, non ci vuole molto a capire che le cose non stanno affatto come hai riportato: basta solo un po' di logica per arrivare alle conclusioni di cui sopra...
[B]
per la risoluzione, in usa le HDTV sono molto diffuse, e tramite il cavo component supporta le risoluzioni delle HDTV , ci sono già dei giochi che le supportano...
Ciao !
Mah, a me non risulta che siano molto diffuse: e sono un americano... ;) Le hanno soltanto le persone piene di soldi che non sanno come spenderli. L'HDTV è ancora lungi dal divenire una concreta piattaforma, anche perché manca ancora un supporto concreto, come un videoregistratore ad alta defizione, e dei prezzi abbordabili per aprire le porte del mercato di massa.
E' vero che è possibile collegarlo all'X-Box e ci sono dei giochi che supportano quelle risoluzioni, ma questo non richiede nessuno sforzo da parte delle software house, perché gestire delle risoluzioni diverse è tanto semplice quanto su un qualunque PC... :)
Resta il fatto che il target è pur sempre la normalissima TV NTSC o PAL, e i giochi sono pensati per funzionare bene su questa: il resto è grasso che cola... ;)
Gohansupersaiyan4
23-10-2002, 20:11
Allora un Hdtv costa a partire da 650 dollari se t sembra tanto a me non lo sembra proprio.
Fatti un giro su un forum americano e lo constaterai tu stesso.
Allora naturalmente prendi come esempio ut2003 che non usa a pieno vertex e pixel shaders, mentre invece doom3 si basa su quelli...
Ora qui ci sono giochi su xbox che per come numero di poligoni un p3 733 non riuscirebbe mai a gestire, come fa ?
E come mai ha la cpu liberaper fare altre cose a detta dei programmatori , come ad esempio quelli di morrowind :
"And just FYI, the real limitation on the Xbox is NOT the CPU -- it's the memory. Only 64MB total, and that is shared system and graphics RAM. Yes, you can use the hard disk drive and create virtual memory -- we do it -- but you have to use that judiciously because it is very slow compared to system RAM. But that limitation certainly did not affect the lighting.
WormGod on taking advantage of the Nvidia hardware better: We take so much advantage of it that it filed for a restraining order on us. "
Da anandtech :
http://www.anandtech.com/showdoc.html?i=1561&p=14
" The Xbox host CPU however is the very well known Coppermine derived core which although has the unfortunate limitations of the x86 ISA, also carries the benefits of being a very well known architecture with much ISV support. The processor runs at a higher clock rate than the EE but we all know the meaninglessness of clock rate as a single performance metric. What is important to note is the 128KB L2 cache with a 256-bit data bus comes in quite handy in keeping the execution units of the processor busy and even more important is that the CPU does not have to handle any of the T&L calculations. If games are written properly the host CPU should only be used for AI, physics and other such calculations, leaving the GPU to handle all of the T&L and actual 3D rendering. Removing developers from the mindset of the host CPU handling T&L has apparently proved somewhat difficult but the better looking games are testament to the potential of the Xbox GPU when utilized properly. "
Ciao !
cdimauro
23-10-2002, 22:57
Originariamente inviato da Gohansupersaiyan4
[B]Allora un Hdtv costa a partire da 650 dollari se t sembra tanto a me non lo sembra proprio.
Fatti un giro su un forum americano e lo constaterai tu stesso.
Ma non puoi mica comprarti una tv con uno schermo tipo francobollo! HDTV = 1920x1080. Quindi serve un cinescopio di una certa grandezza per godere a pieno di quella risoluzione... Poi ci si può accontentare anche di uno più piccolo, ma questo è un altro discorso...
Tornando al supporto all'HDTV dell'X-Box, il suo uso non è certamente "gratuito": esattamente come accade per il PC, all'aumentare della risoluzione, diminuiscono le prestazioni. Infatti riporto un pezzo dell'articolo di cui mi hai spedito il link:
"ll currently shipping Xbox games, as far as we know, are rendered internally at 640 x 480 and then sent to the Conexant chip which either interlaces the frames for output to a regular 480i or HD 1080i display or leaves the full resolution lines intact for every frame when being sent to a 480p or 720p output. This means that even for HDTV owners, 480p is the best you're going to get for now. Because of the sheer memory bandwidth requirements, 1080i doesn't make much sense for game developers. At 1920 x 1080 there are 153,600 more pixels (8% more) to be rendered than at 1600 x 1200 and we already know how memory bandwidth intensive 1600 x 1200 can be. Considering that the Xbox only has 6.4GB/s of memory bandwidth to work with, only in games with relatively small textures and low detail can we expect 1080i to be a reality. The much more desirable option is 720p. "
E se si usa una maggiore risoluzione, praticamente si può dire addio all'AntiAliasing...
[B]
Allora naturalmente prendi come esempio ut2003 che non usa a pieno vertex e pixel shaders, mentre invece doom3 si basa su quelli...
A me risulta che li sfrutta abbastanza bene (basta vederlo con e senza shader attivati). E in un altro messaggio proprio tu hai scritto:
[B]Ut2003 usa vertex e pixel shaders, lo hanno più volte ribadito i programmatori, il motore è fatto appositamente per farlo
Quandi ti devi decidere: li sfrutta bene oppure no... ;)
[B]
Ora qui ci sono giochi su xbox che per come numero di poligoni un p3 733 non riuscirebbe mai a gestire, come fa ?
Vorrei saperlo anch'io visto che fra un'X-Box e un PC con GF4 4200 le differenze sono tutte a favore di quest'ultimo. Eppure tu sai benissimo che al variare della CPU, in base all'engine del gioco, variano le prestazioni. Se così non fosse, e te l'ho già scritto, basterebbe un 486 DX 100 per far girare i giochi attuali al loro massimo splendore. Così non è, e non può esserlo anche per l'X-Box.
[B]
E come mai ha la cpu liberaper fare altre cose a detta dei programmatori , come ad esempio quelli di morrowind :
"And just FYI, the real limitation on the Xbox is NOT the CPU -- it's the memory. Only 64MB total, and that is shared system and graphics RAM. Yes, you can use the hard disk drive and create virtual memory -- we do it -- but you have to use that judiciously because it is very slow compared to system RAM. But that limitation certainly did not affect the lighting.
WormGod on taking advantage of the Nvidia hardware better: We take so much advantage of it that it filed for a restraining order on us. "
Qui non si parla di cpu libera, ma si rimarca che il fattore limitante è la quantità di memoria, non la CPU. Non c'è alcun accenno al carico sostenuto dalla CPU per la generazione delle scene...
[B]
Da anandtech : http://www.anandtech.com/showdoc.html?i=1561&p=14
"What is important to note is the 128KB L2 cache with a 256-bit data bus comes in quite handy in keeping the execution units of the processor busy and even more important is that the CPU does not have to handle any of the T&L calculations. If games are written properly the host CPU should only be used for AI, physics and other such calculations, leaving the GPU to handle all of the T&L and actual 3D rendering. Removing developers from the mindset of the host CPU handling T&L has apparently proved somewhat difficult but the better looking games are testament to the potential of the Xbox GPU when utilized properly. "
Ciao !
Guarda che la parte di T&L di cui parla è relativa esclusivamente alla fase di rendering finale! La nuova scena, cioè, è già stata calcolata dalla CPU: sono state analizzate le azioni dell'utente e calcolati i movimenti degli oggetti (fisica) e le azioni dei nemici (AI). Forse questo ti sembrerà ben poca cosa, ma richiede uno sforzo non indifferente a carico delle CPU e non della GPU!
Immagina tutti i triangoli che cambiano di posizione, ruotano, ecc. ecc. Tutto deve essere calcolato dalla CPU, che poi passa i risultati alla GPU. Quest'ultima agisce solamente a livello di rendering: prende la scena finale, applica le trasformazioni (setup, clipping, correzione prospettica, ecc.) dei triangoli, i calcoli delle luci presenti, passa le informazioni agli eventuali vertex e poi pixel shader, applica le texture, e genera il frame buffer (diciamo che + o - è così :)).
Forse dovresti documentarti meglio sulle varie fasi attinenti alla realizzazione di un videogioco: non è così semplice come sembra...
D'altra parte, ti sarai chiesto come mai esistono in circolazioni così tanti engine 3D che hanno un impatto sull'utilizzo della CPU, della banda di memoria, e della GPU così diverse fra loro. Se fosse così semplice come la fai tu, dovrebbero girare più o meno allo stesso modo su qualunque macchina dotata di GPU, e soprattutto la CPU potrebbe passare quasi tutto il tempo a girarsi i pollici, ma non è assolutamente così!
Ripeto per l'n-esima volta: documentati. E vedrai che la realtà è alquanto diversa da come l'hai dipinta...
Saluti
Gohansupersaiyan4
23-10-2002, 23:51
Allora la perdita di prestazioni non si ha usando la 480p perchè il segnale esce sempre il 640 x 480 non interlacciati e poi vengono interlacciati i meno a secondo del televisore, punto primo.
Aumentando la risoluzione non aumenta il numero di poligoni e stai sicuro che se il gioco usa una risoluzione più alta sarà ottimizzato per farlo...
Gli HDTv hai detto non sono diffusi e costano tanto, non è vero ti ho dimostrato il contrario , e sono parecchio diffusi invece...
punto terzo il tuo discorso non è supportato dai fatti, il mio si.
Quello che dico non è giusto ? Allora panzer gragon oorta non esiste ?
Come mai il programmatore di Halo2 dice che avendo la cpu libera può usarla per avere ottime gestioni dei personaggi ?
Ora Halo 2 ha una grafica eccezzionale ed un gestione dei personaggi anche eccezzionale, mentre con il tuo discorso sembra che una cosa debba escludere l'altra, mentre così non è...
Riguardo ut2003 lo stesso programmatore ha detto prima che il gioco li usava per tutto, poi ha detto dopo che non li usa in modo massivo, mentre son sicuro che doom3 li usa molto di più...
I giochi per xbox che sfruttano vertex e pixel shaders
muovono un numero di poligoni che se il tuo discorso fosse corretto non potrebbero muovere, allora come fanno ?
Guarda qui :http://www.nextgame.it/Immagini/sega/panzerdragoonorta/panzerdragoonorta_preview20020702_xbox0.jpg
Ciao !
Gohansupersaiyan4
23-10-2002, 23:54
Cioè continui a insitere con la storia del processore ma non ho bisogno di dimostrare che ho ragione, perchè basta guardare i giochi per xbox che confermano quello che dico...
Ciao !
Gohansupersaiyan4
23-10-2002, 23:57
Tra l'altro dove sarebbe il vantaggio della geforce4 nel Pc :
guarda qua :
"that the customized DirectX 8 version the Xbox is using is more advanced than the ones the Radeon 8500 and the Geforce4 use. For instant, Xbox's vertex shaders have 192 contant registers (96 for Radeon 8500 and Geforce4). Vertex shading programs on Xbox can be 136 instruction long (128 for Radeon 8500 and Geforce4)."
Poi :
"GSUK: Tell us about the Graphics Chip - is that still going to be the NV 25?
JA: Well what we've always called it officially is the NV2A. A lot of
people have called it the NV25, but nVidia told us to call it the 2A
instead and there are two reasons for that: one, the NV25 in the
event that nVidia wouldn't use that part would be a PC part and
it would be put in here. The second thing is the part that we have
in the box is not just a super clocked NV20 but it actually draws
some of the geometry features out of the NV30. So if you put a
label on it, it's really an NV27.5 or somewhere in that range in
terms of the family. But it doesn't really have an official name so
we're settling on the NV2A and calling it a day at that. As you
know we upped the CPU and downgraded the GPU recently but
we'll still have the three times performance we were shooting for.
http://www.google.it/search?q=cache:z9gUDN7cIw4C:extra.gamespot.co.uk/news/2001/01/9031.html+nv2a+specification&hl=it&ie=UTF-8
"
Poi, ancora analisi delle funzioni della Nv2a da parte di un programmatore :
Just answer these simple questions:
The NV2A supports signed stencil buffer additions. The NV-30 supports signed stencil buffer additions.
Does the GeForce4 support signed stencil buffer additions?
Yes or no?
Now, the NV2A supports Accuview, and 4Xs FSAA. Does the GeForce3 support either of these features?
Yes or no?
If the NV2A has features which are not supported in the GeForce3, but are in the GeForce4, does that make it above the GeForce3?
If the NV2A supports features not in the GeForce 4, but are in the NV-30, does that make it above the GeForce4?
Ciao !
Gohansupersaiyan4
24-10-2002, 00:06
Se la GPU si prende l'onere di effettaure la trasformazione dei vertici, l'illuminazione e il clipping ti assicuro che alla CPU non resta altro che tener in piedi il sistema operativo e dar vita all'intelligenza artificiale. Perchè scusa nell'X-Box cosa succede ? Tu pensi veramente che la CPU gestisca la grafica ? Ma dai, carica l'OS e gestisce le comunicazione tra i chip set e le periferiche, non certo la mole di grafica che fanno vedere i giochi x xbox..
Ciao !
cdimauro
24-10-2002, 06:43
Originariamente inviato da Gohansupersaiyan4
[B]Allora la perdita di prestazioni non si ha usando la 480p perchè il segnale esce sempre il 640 x 480 non interlacciati e poi vengono interlacciati i meno a secondo del televisore, punto primo.
Ma hai letto quanto è scritto in quell'articolo di Anandtech o hai fatto finta? C'è scritto chiaramente che tutti i giochi usano sì la 640x480 che poi vengono "scalati" alle risoluzioni dell'HDTV, e quindi senza perdita di prestazioni, ma anche di qualità, perché un conto è renderizzare a 640x480 ed effettuare lo scaling e tutt'altra cosa calcolare tutto a 1920x1080 e visualizzarlo così com'è).
Sarebbe possibile far passare direttamente il frame buffer (e quindi renderizzare alla risoluzione nativa dell'HDTV), ma non lo so si fa perché l'operazione richiederebbe una banda di memoria enorme rispetto alla 640x480...
C'è scritto proprio là sopra e più in particolare nel resto della pagina di Anand, vai pure controllare se vuoi...
[B]
Aumentando la risoluzione non aumenta il numero di poligoni e stai sicuro che se il gioco usa una risoluzione più alta sarà ottimizzato per farlo...
Vedi sopra: non renderizza a 1920x1080, ma ci pensa il chip video a scalare l'output a quella risoluzione. Un po' come quando si guardano sull'uscita tv i film rippati in DivX a risoluzioni scarse, tipo a 512x384: vengono scalati alla risoluzione televisiva nativa, a 720x576, ma la qualità mica è la stessa della dimensione originale...
[B]
Gli HDTv hai detto non sono diffusi e costano tanto, non è vero ti ho dimostrato il contrario , e sono parecchio diffusi invece...
Ok, diamolo per assodato.
[B]
punto terzo il tuo discorso non è supportato dai fatti, il mio si.
Ma quali fatti, scusa? Ti ho DIMOSTRATO che non può essere come dici e continui ad insistere...
Non sai neppure come viene realizzato un engine 3D, tutte le fasi di cui ha bisogno e quali di queste pesano sul processore e quali sulla scheda video...
[B]
Quello che dico non è giusto ? Allora panzer gragon oorta non esiste ?
Ma che cosa stai dicendo?!? Il fatto che un gioco generi così tanti poligoni al secondo non vuol che il sistema non è in grado di farlo: si deve spremere bene, impegnando come si deve tutte le risorse a disposizione, processore incluso.
Se è per questo la Sega dava il DreamCast in grado di renderizzare 3 milioni di poligoni al secondo, mentre alcuni degli ultimi giochi riescono a tirarne fuori ben 5...
E' un discorso di ottimizzazione e sfruttamento dell'hardware. Ma il punto della questione verte sull'occupazione della CPU, non sull'esistenza o meno di un gioco che genera 20 milioni di poligoni al secondo. Certo che può farlo, se spreme per bene ANCHE la cpu.
Non puoi portarmi ragionamenti che se non c'entrano col discorso originale solo per portare acqua al tuo mulino: un conto è parlare della possibilità di avere giochi con un mare di poligoni, e un'altra cosa è l'occupazione della CPU. Io ho detto che le due cose sono legate e che dipendono strettamente l'una dall'altra. Tu ancora non hai portato una prova che dimostri che invece non sono legate e che la CPU non è vincolante per la prima.
[B]
Come mai il programmatore di Halo2 dice che avendo la cpu libera può usarla per avere ottime gestioni dei personaggi ?
Ora Halo 2 ha una grafica eccezzionale ed un gestione dei personaggi anche eccezzionale, mentre con il tuo discorso sembra che una cosa debba escludere l'altra, mentre così non è...Riguardo ut2003 lo stesso programmatore ha detto prima che il gioco li usava per tutto, poi ha detto dopo che non li usa in modo massivo, mentre son sicuro che doom3 li usa molto di più...
I giochi per xbox che sfruttano vertex e pixel shaders
muovono un numero di poligoni che se il tuo discorso fosse corretto non potrebbero muovere, allora come fanno ?
Guarda qui :http://www.nextgame.it/Immagini/sega/panzerdragoonorta/panzerdragoonorta_preview20020702_xbox0.jpg
Ciao !
Infatti si parla dell'unità di T&L, e che finalmente i programmatori hanno imparato a spremerla per bene per ridurre il carico del lavoro che prima era ancora appannaggio della CPU...
Quel che tu non riesci a capire è che la fase di T&L è una cosa (la fase finale), e la generazione della scena finale da renderizzare è un'altra cosa (la fase iniziale). La prima (seconda fase) è, ormai, competenza della GPU, e la seconda (prima fase) però resta ancora a totale carico della CPU.
Quella più pesante è sicuramente la fase di T&L gestita dalla GPU, per cui il fatto che adesso sia a suo totale carico è una gran cosa, e nessuno lo mette in dubbio. Ma la prima fase richiede comunque un impegno di risorse notevole da parte della CPU. E più aumentano i poligoni da gestire, più diventa oneroso il loro calcolo da parte della CPU.
Quel che tu non conosci e quindi non riesci a capire bene è che queste due fasi sono distinte fra loro. Mi sicca dovertelo ripetere per l'n-esima volta: documentati su come vengono realizzati gli engine 3D e finalmente potrai capire il mio ragionamento.
Succo del discorso: Vertex e Pixel shader sono i benvenuti, ma la loro parte la svolgono nella fase di T&L e quindi nella GPU, non in quella della generazione della scena da renderizza e quindi nella CPU. I programmatori sono entusiasti del fatto che ciò sgrava la CPU ANCHE di questo compito, per cui è libera di fare altro, ma gli resta da generare la scena, che non è certo poca cosa. In confronto all'Emotion Engine del PS2 qui è il paradiso, perché con la PS2 l'EE deve occuparsi invece di TUTTO.
E' chiaro il discorso? Se hai ancora dei dubbi, informati, come ti ho già detto, e dopo ne possiamo anche riparlare...
cdimauro
24-10-2002, 06:54
Originariamente inviato da Gohansupersaiyan4
[B]Cioè continui a insitere con la storia del processore ma non ho bisogno di dimostrare che ho ragione, perchè basta guardare i giochi per xbox che confermano quello che dico...
Ciao !
Quello che stai dicendo non sta né in cielo né in terra: come fai a dire che non hai bisogno di dimostrare quello che dici? Ma ti rendi conto di quello che ti scappa "dalla bocca"?
Per di più, per "dimostrare" che l'X-Box non usa la CPU mi vieni a dire che è sufficiente guardare i giochi che ci girano? Lo capisci che così non dimostri assolutamente niente, perché i discorsi non sono neppure attinenti?
Io ti propongo una soluzione definitiva alla nostra disputa: prendiamo una X-Box, dissaldiamo la pista che porta il clock al processore e lo colleghiamo ad un divisore di clock che lo riduce ad 1/8 (da 733 a 91Mhz) e poi vediamo a quanto girano i giochi.
Visto che il processore, secondo il tuo ragionamento, passa il tempo a girarsi i pollici, perché il calcolo della fisica e dell'IA posso assicurarti che porta via un quantità di tempo irrisoria se non si vanno a cambiare anche i vertici dei poligoni, i giochi dovrebbero girare esattamente come prima (parlo del gioco vero e proprio, non della fase di caricamento con annessi e connessi, che chiaramente risulterà più lenta).
Che ne dici, facciamo una prova? La X-Box alla fine la pagherà chi perderà la "sfida"... ;)
cdimauro
24-10-2002, 07:12
Originariamente inviato da Gohansupersaiyan4
[B]Tra l'altro dove sarebbe il vantaggio della geforce4 nel Pc :
guarda qua :
"that the customized DirectX 8 version the Xbox is using is more advanced than the ones the Radeon 8500 and the Geforce4 use. For instant, Xbox's vertex shaders have 192 contant registers (96 for Radeon 8500 and Geforce4). Vertex shading programs on Xbox can be 136 instruction long (128 for Radeon 8500 and Geforce4)."
Ma non vedi che così dimostri di non sapere neppure di cosa stai parlando? Sai in quale fase si utilizzano i Vertex shader? Come si usano? Perché si usano?
E soprattutto conosci l'impatto che possono avere 192 registri costanti anziché 96? E 136 istruzioni anziché 128?
Lo sai che l'impatto maggiore è dovuto più che dal raddoppio dei registri costanti, dalla presenza di quelle 8 istruzioni in più? Il cui aumento è talmente esiguo da risultare assolutamente trascurabile, perché realizzare programmi più lunghi di 8 istruzioni non cambia certo la faccia ad un gioco...
Le costanti in più invece sono utili per realizzare qualche effetto più carino (più costanti = più valori = più possibilità di "scelta" all'interno dei programmi).
[B]
Poi :
"GSUK: Tell us about the Graphics Chip - is that still going to be the NV 25?
JA: Well what we've always called it officially is the NV2A. A lot of
people have called it the NV25, but nVidia told us to call it the 2A
instead and there are two reasons for that: one, the NV25 in the
event that nVidia wouldn't use that part would be a PC part and
it would be put in here. The second thing is the part that we have
in the box is not just a super clocked NV20 but it actually draws
some of the geometry features out of the NV30. So if you put a
label on it, it's really an NV27.5 or somewhere in that range in
terms of the family. But it doesn't really have an official name so
we're settling on the NV2A and calling it a day at that. As you
know we upped the CPU and downgraded the GPU recently but
we'll still have the three times performance we were shooting for.
Con questo non dimostri ancora niente, perché, e te lo ripeto nuovamente, si parla della fase di T&L e non di ciò che c'è prima.
Anche questo, comunque, offre uno spunto per risolvere la nostra "diatriba". Siccome la GPU dell'X-Box utilizza alcune funzioni dell'NV30, ma è comunque inferiore a quest'ultimo, basta aspettarne l'uscita e vedere come scala la sua potenza al variare della CPU del computer su cui gira.
Secondo i tuoi ragionamenti, anche il primo Celeron 300Mhz senza cache L2 dovrebbe far girare qualunque gioco che sfrutti a fondo le DX8+ senza impegnare la CPU.
Bene, vedremo quando uscirà questo benedetto NV30 se si potrà sfruttare al massimo con le CPU che ognuno ha, oppure se sarà "fortemente consigliato" il passaggio ad una CPU più potente, tipo P4 a 3Ghz e oltre.
Guarda un po', non serve neppure vivisezionare un'X-Box... ;)
[B]
Poi, ancora analisi delle funzioni della Nv2a da parte di un programmatore :
Just answer these simple questions:
The NV2A supports signed stencil buffer additions. The NV-30 supports signed stencil buffer additions.
Does the GeForce4 support signed stencil buffer additions?
Secondo te lo stencil buffer serve per generare la scena (le coordinate dei poligoni e i triangoli)? Scarica il lavoro della CPU? Lo sai a a cosa si usa? ;)
[B]
Now, the NV2A supports Accuview, and 4Xs FSAA. Does the GeForce3 support either of these features?
Idem come sopra. ;)
[B]
If the NV2A has features which are not supported in the GeForce3, but are in the GeForce4, does that make it above the GeForce3?
If the NV2A supports features not in the GeForce 4, but are in the NV-30, does that make it above the GeForce4?
Ciao !
Idem come sopra.
Ripeto: documentati sul funzionamento di un engine 3D e poi ne parliamo. Fino ad ora non stai facendo altro che scavarti la fossa con le tue mani ad ogni messaggio e informazione che tiri fuori per tirare acqua al tuo mulino... ;)
Sono tutte cose che NON sgravano la CPU dall'onere di calcolare i nuovi vertici/triangoli del nuovo fotogramma da renderizzare...
cdimauro
24-10-2002, 07:17
Originariamente inviato da Gohansupersaiyan4
[B]Se la GPU si prende l'onere di effettaure la trasformazione dei vertici, l'illuminazione e il clipping ti assicuro che alla CPU non resta altro che tener in piedi il sistema operativo e dar vita all'intelligenza artificiale. Perchè scusa nell'X-Box cosa succede ? Tu pensi veramente che la CPU gestisca la grafica ? Ma dai, carica l'OS e gestisce le comunicazione tra i chip set e le periferiche, non certo la mole di grafica che fanno vedere i giochi x xbox..
Ciao !
Ma lo vuoi capire una buona volta che la "gestione della grafica" non è un blocco granatico da passare interamente alla GPU? E' costituita di tanti passi, come tanti piccoli ingranaggi che fanno muovere un orologio.
Bene, parte di questi ingranaggi stanno nella CPU e parte nella GPU. Ma è la CPU che si occupa di generare i vertici/triangoli che poi sarà la GPU a renderizzare. Sicuramente quest'ultima è la parte più onerosa, ma la CPU NON E' LIBERA DI FARE CIO' CHE VUOLE.
La generazione della scena è comunque onerosa e richiede potenza di calcolo. Più aumentano i poligoni da manipolare, più il processore sarà impegnato.
Documentati una buona volta, così la finiamo di parlare sempre delle stesse cose...
ErPazzo74
24-10-2002, 10:49
Originariamente inviato da Gohansupersaiyan4
[B]Se la GPU si prende l'onere di effettaure la trasformazione dei vertici, l'illuminazione e il clipping ti assicuro che alla CPU non resta altro che tener in piedi il sistema operativo e dar vita all'intelligenza artificiale. Perchè scusa nell'X-Box cosa succede ? Tu pensi veramente che la CPU gestisca la grafica ? Ma dai, carica l'OS e gestisce le comunicazione tra i chip set e le periferiche, non certo la mole di grafica che fanno vedere i giochi x xbox..
Ciao !
Ti sbagli le fasi di rendering sono varie e le attuali GPU non le ricoprono ancora tutte, la VPU di 3dlabs si occupa di qualcosa di + ma rimane sempre qualcosa da fare per la CPU ;)
La cpu non gestisce la grafica direttamente ma gestisce fasi che poi sfocieranno nella grafica.
Penso che il motivo per cui la CPU è libera è che la risoluzione è ridicola 640x480, che per un PIII 733 è una bazzecola......
Ma sinceramente ritengo impossibile che l'occupazione sia del 5% (per darti un idea quando ti fermi sulla barra delle applicazioni di windows e compare un'etichetta (tooltip) occupi + del 5% della CPU anche se mi sono sempre chiesto perché costi così tanto :)).
Forse un'occupazione del 50% è + realistica, comunque personalmente se io fossi 1 programmatore di giochi utilizzerei sino all'ultima goccia la CPU per rendere migliore l'AI, è stupido secondo me non sfruttare delle risorse.
Ciao ............a presto........
Gohansupersaiyan4
24-10-2002, 12:43
Allora partendo dal principio, se anandtech dice che l' xbox scala le risoluzioni a quelle maggiori dice un immensa cazzata, non è così ed è difatti questo il motivo percui i programmatori non le usano perchè dovrebbero ottimizzare il gioco anche per risoluzioni più alte.
Poi tu lo hai un xbox ?
Se non lo hai quello che dici sono solo supposizzioni e quello che dici non ha nessun valore.
Altra cosa, quando ho parlato del chip della Nv2a non era riferito al discorso sulla cpu ma in risposta a dove dicevi che la gefrce4 è più avvantaggiata, e ho provato che non è così.
Proseguaendo, ed fries, programmatore e capo di una software house che sta sviluppando un gioco per xbox, in un intervista ha detto che nel suo gioco la cpu viene, limitatamente alla grafica, sfruttata per max il 5-10%...ora io penso lui ne sappia molto più di te anche perchè tu non hai un kit di sviluppo per xobx, e per dire quello che dici ti basi solo su supposizioni personali, ma l' xbox non è un pc percui potrebbe avere funzioni per avere pochissimo carico di cpu, ripeto le tue sono supposizioni senza nessuna prova a confermare quello che dici, ma i giochi che rirano su xbox invece fanno capire molto bene che la cpu non è molto impegnata nel reparto grafico...
Io penso che Ed fries sappia quello che dice...
Ora, ricollegandoci al discorso iniziale, quello che ho detto, e qui si parlava di Nv30 , ho detto che col passare del tempo le gpu faranno sempre più cose percui parlare di cpu milited non ha più senso...
Ciao !
cdimauro
24-10-2002, 21:36
Originariamente inviato da Gohansupersaiyan4
[B]Allora partendo dal principio, se anandtech dice che l' xbox scala le risoluzioni a quelle maggiori dice un immensa cazzata, non è così ed è difatti questo il motivo percui i programmatori non le usano perchè dovrebbero ottimizzare il gioco anche per risoluzioni più alte.
Per scalare intendo il fatto che il gioco viene renderizzato a 640x480 e, nel caso dell'HDTV, "espanso" a 1920x1080, fino a coprirne tutta la visuale.
Ora, in base a quello che hai detto sopra, i casi possibili sono tre (per l'HDTV):
1) Il gioco viene renderizzato a 640x480 e visualizzato a 640x480: praticamente vedresti un francobollo sull'HDTV. Performance elevate. Qualità scarsa. Ipotesi mooolto inverosimile.
2) Il gioco viene renderizzato a 640x480 e "scalato" a 1920x1080 dal chip che gestisce l'uscita video dell'X-Box, in modo da coprire quasi tutta l'area visibile (ti ricordo che l'HDTV è 16:9 e non 4:3). Performance elevate. Qualità decente. Ipotesi molto verosimile (fonte Anandtech).
3) Il gioco viene renderizzato a 1920x1080 e passato direttamente all'HDTV. Performance molto ridotte: due frame buffer (per il double buffering) + lo ZBuffer occuperebbero da soli quasi 25MB di memoria, per non parlare dell'elevatissima banda di memoria richiesta (i 6,4GB/s, per giunta condivisi con tutto il resto, non sarebbero sufficienti per garantire giochi visivamente "appaganti"). Qualità eccellente, fatto salvo per le texture, che risulterebbero drammaticamente ridotte. Ipotesi poco verosimile.
Non so tu, ma io propenderei per la seconda ipotesi. E a questo punto le cazzate le spareresti tu e non Anand, che dimostra DA ANNI di conoscere bene il SUO MESTIERE...
Non so tu di cosa ti occupi nella vita...
[B]
Poi tu lo hai un xbox ?
No, ma ce l'hanno alcuni miei amici. E non venirmi a dire adesso che bisogna averlo a casa e collegarlo per via endovenosa anche quando stai dormendo per poter dire di conoscerlo ed espremere giudizi... ;) Mi bastano quei pochi momenti in cui m'invitano a vedere gli ultimi giochi che hanno comprato/affittato. Come pure mi basta vederlo e/o provarlo nei vari centri commerciali che lo espongono...
[B]
Se non lo hai quello che dici sono solo supposizzioni e quello che dici non ha nessun valore.
Vedi sopra. Non vedi che ti stai rendendo ridicolo? Pur di portare acqua al tuo mulino e di non perdere la faccia, stai tirando fuori dei discorsi infantili che non fanno altro che peggiorare la situazione...
Io non parlo certo basando esclusivamente su delle supposizioni: a differenza di te, ho avuto la fortuna di studiare all'università materie inerenti all'elaborazione delle immagini, ivi compreso il complesso ed affascinante mondo del 3D.
Ho avuto anche l'onore d'essere stato inviato per un mese al MediaLab della New York University, dove ho potuto lavorare (anche su sistemi IRIS della Silicon Graphics) con personaggi del calibro di Ken Perlin e Jack Schwartz.
A te tutto ciò non dirà niente, ma non ti preoccupare: continua pure a giocare con la tua X-Box... ;)
[B]
Altra cosa, quando ho parlato del chip della Nv2a non era riferito al discorso sulla cpu ma in risposta a dove dicevi che la gefrce4 è più avvantaggiata, e ho provato che non è così.
La GF4 è decisamente più avvantaggiata, perché possedendo quantitativi più elevati di memoria locale (non condivisa), banda di memoria superiore, e frequenze anche più elevate, risulta molto più indicata per la realizzazione di giochi qualitativamente migliori.
Giocare ad alte risoluzioni, con AntiAliasing attivato, magari anche col filtro anisotropico, garantisce un dettaglio grafico decisamente superiore, e per poter arrivare a questi livelli serve molta potenza.
La X-Box, in quanto console, è stata pensata per lavorare a 640x480 (e a 30Hz, perché il video è interlacciato), e spesso non viene attivato neppure l'AntiAliasing per non far degradare troppo le performance. E' ovvio che a queste condizioni l'NV2A risulta più che adeguato. Ma non regge il confronto con l'NV25, il cui target è decisamente più elevato...
[B]
Proseguaendo, ed fries, programmatore e capo di una software house che sta sviluppando un gioco per xbox, in un intervista ha detto che nel suo gioco la cpu viene, limitatamente alla grafica, sfruttata per max il 5-10%...
Bisogna vedere di che gioco si tratta e quanti poligoni riesce a manipolare. Quelle percentuali comunque sono troppe piccole se si vuol realizzare qualcosa di decente...
[B]ora io penso lui ne sappia molto più di te
Questo come fai a dirlo, scusa? Ci sono anche tanti programmatori che hanno realizzato dei giochi penosi. Io non ho avuto la fortuna di finire e pubblicare quelli a cui stavo lavorando ai tempi dell'Amiga. Per cui non ho più voluto continuare su questa strada, anche se di recente ho avuto delle nuove offerte...
[B]anche perchè tu non hai un kit di sviluppo per xobx
Veramente m'è passato di mano un po' di tempo fa (e non è uno scherzo... ;))
In ogni caso, come puoi giudicare la competenza di una persona semplicemente dal fatto che possieda o meno XDK? Lo può anche avere un completo beota, e tu per questo lo esalteresti a divinità? ;)
Ti rendi conto dell'assurdità che hai sparato? :rolleyes:
[B], e per dire quello che dici ti basi solo su supposizioni personali,
No, io mi baso su tutta la conoscenza che ho acquisito in vent'anni d'esperienza nel campo dell'informatica, a cui unisco una buona dose di logica e senso critico. Esattamente le cose che sembrano mancare a te...
[B]ma l' xbox non è un pc percui potrebbe avere funzioni per avere pochissimo carico di cpu, ripeto le tue sono supposizioni senza nessuna prova a confermare quello che dici,
Ma li rileggi i messaggi prima di postarli? Come puoi accusarmi di basarmi solamente su delle supposizioni dopo tutto quello che ho scritto? A questo punto o non capisci, o fai finta di non capire per non perdere la faccia. Ma t'assicuro che l'hai già persa da un pezzo, perché hai dimostrato ampiamente di sconoscere assolutamente le basi più elementari del funzionamento di un engine 3D.
Ma la goccia che fa traboccare il vaso è quando scrivi che l'X-Box "potrebbe avere" delle funzioni che scaricano il lavoro della CPU. Già: "potrebbe avere". Non sai neppure come funziona l'X-Box e poi vieni ad accusarmi di basarmi delle supposizioni...
Continua pure a giocare, che è meglio...
[B]ma i giochi che rirano su xbox invece fanno capire molto bene che la cpu non è molto impegnata nel reparto grafico...
Sì, in effetti ti visualizzano tutti l'occupazione della CPU, della GPU, dell'APU e di tutte le risorse impegnate mentre stai giocando a Dead or Alive 3... ;)
[B]
Io penso che Ed fries sappia quello che dice...
Io penso di sapere quel che dico. E penso che il discorso di Ed Fries, senza cifre alla mano e riferimenti precisi all'argomento della discussione, sia assolutamente privo di valore...
[B]
Ora, ricollegandoci al discorso iniziale, quello che ho detto, e qui si parlava di Nv30 , ho detto che col passare del tempo le gpu faranno sempre più cose per cui parlare di cpu milited non ha più senso...
Ciao !
E allora torno a ripeterti: in futuro potrebbe benissimo bastare un 486 per far girare i giochi più pesanti. Quando arriverà quel giorno, scrivimi pure per rinfacciarmi che i miei ragionamenti erano del tutto sbagliati...
Nel frattempo sosterrò fino alla morte la validità delle mie tesi... ;)
Ciao
Gohansupersaiyan4
24-10-2002, 23:45
Allora sbagli clamorosamente sul primo punto, infatti
l' xbox come hai detto nel punto tre renderizza la risoluzione effettiva mica va a 640 x 480 e poi la upconverte a 1920x1080...le performance infatti diminuisco ma mi pare logico...è per questo che non ci sono tanti giochi che usano più della 640 x 480...mi fa ridere che tu abbia solo pensato che non sia così...haha bell' esperto...ma lo sai che l' xbox ha una versione avanzata della geforce4 ?
Ma secondo te la geforce4 sul pc quando cambia risoluzione in realtà va sempre a 640 x 480 e poi upconverte tutto ?
Ma non farmi ridere dai...
Cosa hai detto poi ? Il video a 30Hz ? ma dove la hai sentita questa ?
Il televisore pal ha una frequenza di 50Hz e l'xbox ha un opzione che abilita i 60Hz percui vanno come quelli Ntsc..a parte questo ti dico una cosa fenomenale...: lo sai che c'è il cavo Vga anche per xbox con cui lo colleghi al monitor come fai col Pc ?
Ma per piacere, ma provalo l'xbox prima di dire cazzate...tutti i giochi sono nativamente in progressivo, poi vengono interlacciati o meno a seconda del cavo che usi...
Riguardo al resto, le tue rimangono solo opinioni, e
ripeto quello che ha detto Ed fries mi pare chiaro ed esplicito, e si, penso proprio che sappia quello che dice...
Inoltre mi puoi dire che vantaggio ha la geforce4 nel non avere delle funzioni che ha la Nv2a e che saranno presemti nell' Nv30 ?
ma per piacere...
Ciao !
Gohansupersaiyan4
25-10-2002, 00:00
A parte il fatto della risoluzione, ritornando al discorso della cpu/gpu , mi pare che non hai capito cosa ho detto : non ho detto che la cpu è usata per il 10% nel gioco, ho detto limitatamente alla grafica, non nel gioco ingenerale, perchè aggiungendo tutte le altre cose la cpu viene occupata, ma vediamo il suo carico quando non deve calcolare ia, ecc, e su questo che discutevo, del fatto che siccome ormai la cpu usando vertex e pixel shadres si ritrova a fare 10% delle cose che doveva fare prima, e può dedicare il resto della potenza ad altre cose come la ia, ecc...
Ripeto con una buona programmazione il discorso ha senso, non penso che Ed fries lo abbia detto in un intervista a gamespot, rischiando di dire una cazzata visto che avrebbero letto tutti ti pare ?
Ciao !
Ciao !
Demetrius
25-10-2002, 00:13
.... non per intromettermi, ma l'NV2A dell'X-Box non è una versione avanzata del GF4: è solo una via di mezzo tra GF3 e GF4, ovvero un GF3 con qualche caratteristica presente poi nel GF4. :)
cdimauro
25-10-2002, 06:58
Originariamente inviato da Gohansupersaiyan4
[B]Allora sbagli clamorosamente sul primo punto, infatti
l' xbox come hai detto nel punto tre renderizza la risoluzione effettiva mica va a 640 x 480 e poi la upconverte a 1920x1080...le performance infatti diminuisco ma mi pare logico...è per questo che non ci sono tanti giochi che usano più della 640 x 480...
E che cosa ho detto io, scusa? Stai ripetendo ESATTAMENTE le mie stesse parole! Io ho analizzate le possibili soluzioni e le dirette conseguenze. E sono giunto alla conclusione che nella stragrande maggioranza dei giochi vale il secondo caso.
Non riesci a capire neppure quello che scrive la gente, e per giunta t'incazzi! Assurdo...
[B]mi fa ridere che tu abbia solo pensato che non sia così...haha bell' esperto...
Mi fa solo pena: ormai non sai più a quale santo votarti...
[B]
ma lo sai che l' xbox ha una versione avanzata della geforce4 ?
Certo che lo so: ha delle funzionalità che vedremo nell'NV30. Ma tu non vuoi proprio capire. Io ho detto che NON HA la quantità di memoria del GF4, NON HA una banda di memoria paragonabile e ha un clock INFERIORE: tutti fattori che gli impediscono di realizzare giochi con risoluzioni elevate, con AA, e possibillmente con filtro anisotropico attivato, come invece accade con i giochi che girano sui PC, che sono qualitativamente superiori dal punto di vista grafica (potenzialmente: poi esistono delle vere e proprie schifezze, ma quella è dovuta all'incapacità dello staff...)
Lo vuoi capire una buona volta?
[B]
Ma secondo te la geforce4 sul pc quando cambia risoluzione in realtà va sempre a 640 x 480 e poi upconverte tutto ?
Ma non farmi ridere dai...
Infatti con te mi sto facendo delle grasse risate: non sai neppure capire il contenuto dei messaggi che scrive la gente. Vedi sopra.
Continua pure a giocare con l'X-Box... ;)
[B]
Cosa hai detto poi ? Il video a 30Hz ? ma dove la hai sentita questa ?
Il televisore pal ha una frequenza di 50Hz e l'xbox ha un opzione che abilita i 60Hz percui vanno come quelli Ntsc..a parte questo ti dico una cosa fenomenale...: lo sai che c'è il cavo Vga anche per xbox con cui lo colleghi al monitor come fai col Pc ?
Ma per piacere, ma provalo l'xbox prima di dire cazzate...tutti i giochi sono nativamente in progressivo, poi vengono interlacciati o meno a seconda del cavo che usi...
Anche qui dimostri tutta la tua immensa ignoranza nel campo della realizzazione dei videogiochi e nel funzionamento della TV. Parlavo dei 30Hz perché mi riferivo al sistema americano, ovviamente: 25Hz sono per il sistema PAL, ma il mio era un discorso generale.
Ti spiego come funziona la TV, col sistema PAL così mi capisci meglio ;). Lo standard PAL prevede la visualizzazione di 50 fotogrammi al secondo, ma interlacciati. La risoluzione di ognuno dei 50 fotogrammi che viene visualizzato è di 720x312 (in realtà è 312,5, ma lasciamo perdere questi dettagli insignificanti ai fini del discorso). Poiché, appunto, le immagini sono interlacciate, hanno bisogno di due "fotogrammi" (chiamati semiquadri) per generare l'immagine completa (quadro), e si arriva ad un'immagine di 720x625. Utilizzando un semi-quadro per visualizzare le righe pari e il successivo per quelle dispari, chiaramente non avremo più 50 fotogrammi alla risoluzione di 720x625, ma la metà, cioè 25; 30 per l'NTSC (720x525).
Fin qui penso che sia chiaro. Adesso ti spiego come vengono realizzati e spediti al video i frame dall'X-Box, nel GameCube, DreamCast, ecc. (vale anche per la PS2, ma per quest'ultima, a causa della scarsa quantità di memoria video, sono adottate altre tecniche per risparmiare spazio).
L'obiettivo finale è di realizzare un'immagine di 640x480 o al più 704x576 se vogliamo sfruttare tutta l'area visibile e riempire anche i bordi. Comunque mettiamoci nell'ipotesi della 640x480, che è la più comune.
Allora, viene generata questa benedetta immagine a 640x480. E' chiaro che la console se ne frega altamente dell'interlace: sarà il dispositivo di output (nel caso dell'X-Box il chip della Conexant) a farsi carico dell'interfacciamento col video, sia esso TV, HDTV o altro. Siamo nel caso della TV, comunque.
Ma da come funziona la TV, sappiamo che deve essere spedito prima un semi-quadro con tutte le righe pari e poi quello con tutte le righe dispari, per cui l'immagine viene suddivisa in due (dal punto di vista logico) e il dispositivo di output si occuperà di prelevare le righe pari dal frame buffer e spedirle alla TV per il primo semi-quadro, e la stessa cosa col secondo per le righe dispari, così da formare l'immagine finale. Con questo procedimento, però, le immagini generate sono sempre e comunque 25 (30) e non 50.
L'X-Box, quindi, non genera immagini a 50 (60) frame al secondo, ma soltanto a 25 (30), perché la TV funziona così e lui deve adeguarsi. Se un gioco generasse 50 frame al secondo effettivi a 640x480, a parte lo spreco di risorse, si noterebbero degli artefatti visivi. Infatti, verrebbero visualizzate dal dispositivo di output le righe pari del primo frame elaborato e per il secondo semi-quadro quelle dispari del secondo frame elaborato. Un casino, insomma!
E' quel che accade con i giochi per PS2 che utilizzano l'alta risoluzione (640x480). Lo puoi notare nelle azioni veloci e negli spostamenti rapidi della "telecamera" (punto di vista).
Eccoti dimostrato che i giochi vengono realizzati per girare a 25 fotogrammi al secondo o 30 nel caso dell'NTSC... Vediamo se hai il coraggio di negare anche questo... ;)
[B]
Riguardo al resto, le tue rimangono solo opinioni, e
ripeto quello che ha detto Ed fries mi pare chiaro ed esplicito, e si, penso proprio che sappia quello che dice...
Il problema è che non si sa effettivamente cosa dice, come ho avuto modo di farti notare. Il suo discorso, così com'è, e senza precisi riferimenti, non dice assolutamente nulla.
Poi se tu sei abituato a cibarti del vuoto informativo, sono fatti tuoi. Io vado a caccia dell'informazione, quella tangibile, reale: quella di cui parla Shannon nei suoi teoremi... ;)
[B]
Inoltre mi puoi dire che vantaggio ha la geforce4 nel non avere delle funzioni che ha la Nv2a e che saranno presemti nell' Nv30 ?
ma per piacere...
Ciao !
Per piacere, evita di rispondere se non hai dei FATTI concreti e soprattutto se non sei neppure in grado di capire i miei discorsi.
D'altra parte, hai dimostrato ampiamente di non sapere come funziona un engine 3D o il tridimensionale in generale, non hai mai realizzato giochi e non sai neppure come si fanno. Per cui, se continui ottusamente a non voler capire dei discorsi che sono chiari e cristalli (e qui mi rivolto agli frequentatori del forum: ho detto delle cazzate o la verità?), continua pure a giocare con la tua X-Box. Ma non venire a romper le scatole e contestare chi in questo campo ha una conoscenza che va un tantino oltre la partitina a Dead or Alive 3... ;)
Saluti
cdimauro
25-10-2002, 07:11
Originariamente inviato da Gohansupersaiyan4
[B]A parte il fatto della risoluzione, ritornando al discorso della cpu/gpu , mi pare che non hai capito cosa ho detto : non ho detto che la cpu è usata per il 10% nel gioco, ho detto limitatamente alla grafica, non nel gioco ingenerale, perchè aggiungendo tutte le altre cose la cpu viene occupata, ma vediamo il suo carico quando non deve calcolare ia, ecc, e su questo che discutevo, del fatto che siccome ormai la cpu usando vertex e pixel shadres si ritrova a fare 10% delle cose che doveva fare prima, e può dedicare il resto della potenza ad altre cose come la ia, ecc...
E quali sono le altre cose, scusa? Rilevare i movimenti dell'utente e calcolare l'IA dei personaggi porta via ben poco tempo: sicuramente non si arriva neppure lontanamente al 5% del P3 a 733Mhz. Sono le conseguenze di questi calcoli, e cioè il cambio di visuale, lo spostamento dei personaggi, ecc. e quindi il calcolo dei nuovi vertici/triangolo, che dovranno poi essere renderizzati dalla GPU, che impegnano NON POCO la CPU.
Il problema qui è che tu non hai mai realizzato un gioco e non sai neppure come viene fatto, per cui posso immaginare che ti viene difficile comprendere cioè che ti sto dicendo. Ma cerca di progredire, diamine! Non puoi usare internet soltanto per navigare: se stiamo facendo un discorso serio e tu hai delle carenze, due sono le possibilità che hai per continuare. O ti documenti in materia per sostenere i tuoi ragionamenti, oppure lanci la spugna ed esci da questo discorso.
L'alternativa è continuare a sparare cazzate, ma così approfittiamo dello spazio del forum e rompiamo le scatole alla gente che lo frequenta per trovare delle informazioni, che vuole aumentare il proprio bagaglio culturale...
[B]
Ripeto con una buona programmazione il discorso ha senso, non penso che Ed fries lo abbia detto in un intervista a gamespot, rischiando di dire una cazzata visto che avrebbero letto tutti ti pare ?
Ciao !
Come t'ho già detto, se non ci sono dei precisi riferimenti all'argomento di cui stava trattando, quel che ha detto non ha alcun valore: non ci sono informazioni palpabili e confrontabili. Se m'avesse detto che è relativo alla generazione della scena 3D, al calcolo dell'AI, ecc. sarebbe stato MOLTO diverso. Ma così non è...
Che con una buona programmazione si può tirare fuori della roba notevole, quello sono il primo a dirlo e lo faccio già da parecchio tempo (anche in questo forum). Non foss'altro perchè ho lavorato nel campo dei videogiochi e so cosa significa spremere una macchina per risparmiare anche un solo ciclo di clock.
Spero di non dover rispondere ad un tuo messaggio che ripete le sempre le stesse cose: o ti aggiorni o è meglio lasciar perdere...
Ciao
cdimauro
25-10-2002, 07:15
Originariamente inviato da Demetrius
[B].... non per intromettermi, ma l'NV2A dell'X-Box non è una versione avanzata del GF4: è solo una via di mezzo tra GF3 e GF4, ovvero un GF3 con qualche caratteristica presente poi nel GF4. :)
Come potenza rozza è una via di mezzo fra GF3 e GF4, ma, a quanto ha sempre riportato nVidia, ha qualche elemento che vedremo nell'NV30.
Sono curioso di sapere cosa implementa di questo chip, anche perché ormai se ne conoscono le caratteristiche tecniche, e non ci sono certo dei grossi cambiamenti rispetto al modo di realizzare giochi oggi, fatta eccezione per le DirectX 9...
Gohansupersaiyan4
25-10-2002, 10:51
Per cominciare dall' inizio , le delle tue ipotesi :
Quoto quello che hai detto :
Per scalare intendo il fatto che il gioco viene renderizzato a 640x480 e, nel caso dell'HDTV, "espanso" a 1920x1080, fino a coprirne tutta la visuale.
"Ora, in base a quello che hai detto sopra, i casi possibili sono tre (per l'HDTV):
1) Il gioco viene renderizzato a 640x480 e visualizzato a 640x480: praticamente vedresti un francobollo sull'HDTV. Performance elevate. Qualità scarsa. Ipotesi mooolto inverosimile.
2) Il gioco viene renderizzato a 640x480 e "scalato" a 1920x1080 dal chip che gestisce l'uscita video dell'X-Box, in modo da coprire quasi tutta l'area visibile (ti ricordo che l'HDTV è 16:9 e non 4:3). Performance elevate. Qualità decente. Ipotesi molto verosimile (fonte Anandtech).
3) Il gioco viene renderizzato a 1920x1080 e passato direttamente all'HDTV. Performance molto ridotte: due frame buffer (per il double buffering) + lo ZBuffer occuperebbero da soli quasi 25MB di memoria, per non parlare dell'elevatissima banda di memoria richiesta (i 6,4GB/s, per giunta condivisi con tutto il resto, non sarebbero sufficienti per garantire giochi visivamente "appaganti"). Qualità eccellente, fatto salvo per le texture, che risulterebbero drammaticamente ridotte. Ipotesi poco verosimile. "
Leggendo questo, ci pacisce che se fai delle ipotesi non sai le cose come stanno realmente, altrimenti che le fai a fare le ipotesi ?
Leggi quello che hai scritto, leggilo bene, hai detto che numero due è la più probabile, invece non lo è, perchè avviene come hai detto con la numero 3, che reputi improbalile...ma invece è proprio così.
Allora passando al discorso sulla Nv2a, non sono le frequenze a dare il nome al chip, ma le caratteristiche, percui non è una tra la geforce3 e la 4 se ha solo le frequenze di una geforce3 ma le lecaratteristiche di una geforce4 con in più altre dell' Nv30.
Poi passiamo alla Tv, qui c'è veramente da ridere, ora ma perchè mi confondi gli Hz con gli Fps ?
Cioè dici che lo schermo Ntsc ha 30Hz mentre quello pal 25Hz...cosa auurda in quanto il sistema Ntsc ha 60Hz mentre quello pal 50Hz...come si può leggere qui :
"tra i due sistemi televisivi: il PAL infatti, lavorando a 50Hz ... L'unico sistema che
può essere direttamente ... Per queste sue caratteristiche uniche viene ... "
link :
http://www.google.it/search?q=cache:qC9M7dzJla4C:members.xoom.virgilio.it/amigazette/comp_e_gfx/cg-cap2.html+caratteristiche+sistema+pal+50Hz&hl=it&ie=UTF-8
Ora un altra cosa che non sai è che esiste lo standard Pal60, ovvero uno stamdard pal che usa una frequenza di 60Hz...l' xbox può modificare la frequanza del televisore e portarla da 50Hz a 60Hz.
Altra cazzata che hai detto , i giochi vanno massimo a
30fps, ma per piacere , halo che va a 25fps, ma Dead or alive 3 va a 60Fps, e si vede la differenza...ma per piacere...giochi massimo a 30fps..qui scadiamo nel ridicolo...Doa3 va a 60fps, se non ci credi controlla tu stesso...
Ciao !
Gohansupersaiyan4
25-10-2002, 11:10
Tra l'altro digitando Doa3 e 60fps viene fuori una pagina intera doce lo dicono :
http://www.google.it/search?q=Doa3+60fps&btnG=Cerca+con+Google&hl=it&ie=UTF-8&oe=UTF-8
Cioè secondo te si sono sbagliati tutti quando dicono che Doa3 va a 60fps ?
ma per piacere...
Ah, e aggiungo che i giochi su xbox vanno a 640 x 480 anche sul sistema pal e il chip manda il segnale a tutto scermo...non usano la risoluzione pal...in ogni caso, i giochi che usano ad esempio la 720p , sono renderizzati in 720p, difatti più volte i programmatori hanno detto che la usano perchè dovrebbero adattare il motore ad una altra risoluzione che richiede più risorse...
Poi un altra cosa : il vantaggio che dice della geforce4, ma che bravo, è ovvio che avendo una freqenza maggiore è più avvantaggiata rispetto alla Nv2a nelle alte risoluzioni, ma se tu dici solo che è avvantaggiata senza dire in cosa, allora può essere qualsiasi cosa, e no, ci sono parti dove è la Nv2a ad essere in vantaggio, se non specifiche in cosa è avvantaggiata non ha senso..
Ciao !
Gohansupersaiyan4
25-10-2002, 11:12
Volevo dire non la usano perchè dovrebbero adattare il motore ad una altra risoluzione che richiede più risorse...
Ciao !
Gohansupersaiyan4
25-10-2002, 11:21
Allora il gioco street ops della Acclaim è uno dei primi gioci che usa la 720p , è confermato che renderizza a quella risolzuione, lo dicono i programmatori...ora mi puoi dire che cosa gliene frega ai programmatori della acclaim di quello che dicono su Anandtech ?
Ciao !
Gohansupersaiyan4
25-10-2002, 11:47
)Lo standard PAL è formato da 25 fotogrammi al secondo
2)In verità i 25 fotogrammi al secondo non esistono , al loro posto si usano 50 semi-fotogrammi o semi-campi dove meta delle linee sono vuote
3)Questi semi - fotogrammi sono creati uno ogni cinquantesimo di secondo (1 sec ÷ 50 semi - fotogrammi) ed hanno la particolarità di avere o le linee pari o quelle dispari vuote
4)I semi fotogrammi viaggiano on-air SEPARATI ad unirli ci pensa la nostra vista
5) perchè confondere fps e Hz ?
6) i giochi che vanno a 60fps probabilmente vanno a 60 semi-field al secondo...in ogni caso ci sono giochi che vanno a 60fps...
Gohansupersaiyan4
25-10-2002, 11:59
Giusto per puntualizzare ancora sulla questione dei 60fps sullo schermo, ecco un altro parere di un programmatore :
you can tell the difference, but i only have a regular tv. regular tv's can only do 30fps anyway, so i'm happy with it."
This is a MYTH.
the 60 feild interlaced nature of television displays effectively allow for graphics information from ALL 60 FRAMES PER SECOND to be displayed on the TV.
That is true if you speak of more recent EDTV sets, but standard televisions, no matter the year, all work on the 60 feild per second timing, therefore, can display 60 fps games as well as a newer standard TV, be that using the old RF adapter all the way up to component. What will change is your image quality: it's inevitable that older sets have worse tube technology and more ancient circuitry.
Ovviamente si riferisce allo standard Ntsc e quindi ai 60Hz e ai 60fps...
Ciao !
Gohansupersaiyan4
25-10-2002, 12:01
Quindi i 60fps ci sono eccome...
Ciao !
Gohansupersaiyan4
25-10-2002, 12:05
It depends: is it an EDTV?if so, it will run at 60 Hz progressive.
If not, it'll be like every other TV, running at 60Hz interlaced.
Ciao !
cdimauro
25-10-2002, 18:34
Originariamente inviato da Gohansupersaiyan4
[B]Per cominciare dall' inizio , le delle tue ipotesi :
Quoto quello che hai detto :
[Segue quote. Lo ometto per non sovraccaricare il messaggio. Lo si può leggere sopra...]
Leggendo questo, ci pacisce che se fai delle ipotesi non sai le cose come stanno realmente, altrimenti che le fai a fare le ipotesi ?
Certo che sono delle ipotesi: poi bisogna vedere i programmatori come decidono di comportarsi e quale strada scelgono, perché ogni caso presenta dei pregi e dei difetti. Infatti il più o meno verosimile è relativo alla scelta di uno staff: è più probabile che decidano di utilizzare il punto 2) anziché il 3) per il discorso di cui sopra.
[B]
Leggi quello che hai scritto, leggilo bene, hai detto che numero due è la più probabile, invece non lo è, perchè avviene come hai detto con la numero 3, che reputi improbalile...ma invece è proprio così.
Certo che l'ho letto: l'ho scritto io e so bene quello che scrivo. ;) Quelle ipotesi non negano mica la realtà dei fatti: ci possono benissimo essere dei giochi che sfruttano la risoluzione massima dell'HDTV, e qui nessuno glielo impedisce. Bisogna vedere nella totalità quanti segueno questa strada, che presenta dei problemi non indifferenti di carico della GPU. Non penso proprio che la maggior parte dei giochi siano realizzati a 1920x1080, bensì a 640x480. Tutto qui.
[B]
Allora passando al discorso sulla Nv2a, non sono le frequenze a dare il nome al chip, ma le caratteristiche, percui non è una tra la geforce3 e la 4 se ha solo le frequenze di una geforce3 ma le lecaratteristiche di una geforce4 con in più altre dell' Nv30.
Infatti, se vai a leggere bene tutti i miei messaggi, non mi sono mai sognato di attribuire quel nome in base alla sua frequenza di lavoro. Ed è vero quel che dici dopo: non l'ho mai negato! Quindi perché m'hai scritto questa cosa? ;)
[B]
Poi passiamo alla Tv, qui c'è veramente da ridere, ora ma perchè mi confondi gli Hz con gli Fps ?
Non è che confondo: è che nel caso delle console questi termini quasi sempre coincidono. A differenza dei PC, dove il frame rate è variabile (e si parla infatti di frame rate medio, minimo e massimo), nelle console, che sono attaccate alla TV, il frame rate normalmente è sempre costante, perché, a frequenze di lavoro così basse (e per altri fattori che ti spiego dopo), uno scatto (salto di un fotogramma) salta subito all'occhio.
Infatti, e smentiscimi se ci riesci, quando di parla di fps di un gioco vengono sempre citati valori come 25 o 50 (per il PAL. 30 e 60 per l'NTSC). Non troverai mai da nessuna parte valori diversi da questi.
Questo, appunto, perché nelle console (ma anche nell'Amiga ;)), mentre il pennello elettronico sta visualizzando un frame, quest'ultima è già al lavoro per creare quello immediatamente successivo, che dev'essere completato prima che il pennello elettronico finisca il suo lavoro e cominci la visualizzazione del quadro successivo. Infatti, a lavoro ultimato, si aspetta il segnale di vertical blanking per cambiare il puntatore del frame buffer da quello precedente a quello appena creato, in modo che il pennello elettronico (in realtà è la circuiteria video della console che fa questo lavoro, ma cito il p.e. per semplicità) visualizza il nuovo frame anziché continuare con quello precedente.
Queste fasi sono molto delicate, e lo "sforamento" di fotogramma comporterebbe uno "strappo" (ripetizione dello stesso fotogramma) o un artefatto grafico (tiling: vedresti la parte superiore dello schermo con la grafica del vecchio frame, e quella inferiore con quella del nuovo), per cui è necessario che tutto il lavoro sia sempre sincronizzato con il p.e..
Nel caso di giochi che usano l'interlace, il discorso è anche più delicato perché, "saltando" la sincronizzazione di un semi-quadro, si rischia di visualizzare le righe pari (o dispari) del frame precedente e quelle dispari (o pari) di quello successivo, con un risultato abbastanza sgradevole.
Queste cose le puoi chiedere anche al più scarso dei programmatori di videogiochi per console, vecchi home computer (come l'Amiga ;)), o giochi arcade (coin-op): e vedrai che te li confermerà esattamente come te li ho descritti...
In realtà si potrebbe fare lo stesso anche col PC, ma il problema è che i giochi girano a risoluzioni diverse e con refresh rate diversi, inoltre il carico di lavoro varia a seconda della scena da renderizzare. Si potrebbe abilitare il VSync, ma le performance del gioco sarebbero molto più ridotte e comunque non ci sarebbe la garanzia di lavorare sempre, ad esempio, a 60 fotogrammi al secondo.
Sulle console il discorso è diverso perché risoluzione e frequenza sono fissi, il numero di pixel da visualizzare è inferiore, per cui la sincronizzazione con vertical blanking è una conseguenza naturale, perché si arriva (quasi) sempre a generare un frame prima che il pennello elettronico abbia finito e passi a disegnare i frame successivo...
Inoltre realizzare giochi che funzionano a frequenze fisse è più semplice che tenere in considerazione l'ammontare di tempo passato per il calcolo di un fotogramma e regolare la velocità degli oggetti della scena di conseguenza...
[B]
Cioè dici che lo schermo Ntsc ha 30Hz mentre quello pal 25Hz...cosa auurda in quanto il sistema Ntsc ha 60Hz mentre quello pal 50Hz...come si può leggere qui :
"tra i due sistemi televisivi: il PAL infatti, lavorando a 50Hz ... L'unico sistema che può essere direttamente ... Per queste sue caratteristiche uniche viene ... "
Allora, visto che fai una confusione terribile, chiariamo questo discorso una volta per tutte.
Come t'ho già scritto, lo standard PAL prevede la visualizzazione di semi-quadri di 720x312 (312,5 per la precisione. 720x262,5 per l'NTSC) che, presi due alla volta, formano un quadro unico da 720x625 (720x525 per l'NTSC). Questo nell'ipotesi di un segnale interlacciato. Ora, se il PAL opera a 50 semi-quadri al secondo, è chiaro che potrà visualizzare al massimo 25 quadri (da 720x625).
Quindi è evidentissimo che NON SI POSSONO visualizzare 50 fotogrammi INTERI a 640x480, ma soltanto 25. Idem per l'NTSC (30 anziché 60).
Se un gioco dovesse generare 60 immagini al secondo a 640x480, è chiaro che la metà dell'informazione elaborata "sparirebbe". Infatti, in questo caso, succederebbe SEMPRE che il primo semi-quadro sarebbe visualizzato con le righe pari del primo frame elaborato, e il secondo invece conterrebbe quelle dispari del secondo frame elaborato. Quindi le righe dispari del primo frame e quelle pari del secondo sarebbero sistematicamente "scartate": non arriverebbero mai alla TV.
Poiché, col segnale interlacciato, le righe dispari vengono visualizzate dal pennello elettronico leggermente più in basso di quelle pari, il risultato finale sarebbe che l'occhio "fonderebbe" i due semi-quadri con delle informazioni diverse fra loro. Gli artefatti risultanti si noterebbero, come ho già detto, nelle scene d'azione e nei cambi veloci del punto di vista della camera (e nello scrolling della grafica: l'avevo dimenticato).
Ti faccio un altro esempio "terra terra" per farti capire che non è possibile generare 60 immagini 640x480 al secondo su una TV. Facciamo in modo di generare in sequenza due frame fatti sempre allo stesso modo. Nel primo poniamo tutte le righe pari di colore bianco e tutte le righe dispari di colore giallo; nel secondo poniamo quelle pari di colore rosso e quelle dispari di colore nero. Se alterniamo queste due immagini 640x480 60 volte al secondo, succederà che vedrai sempre un'immagine unica fatta di righe bianche e nere che si alternano. I colori giallo e rosso delle altre righe non le vedrai MAI. Questo a causa del funzionamento dell'interlace e dei semi-quadri di cui è composto un quadro completo.
Per la cronaca, con le tv è possibile non usare l'interlace, e quindi visualizzare effettivamente 50 fotogrammi al secondo, ma ogni frame ha una risoluzione dimezzata, pari a 640x240. Comunque questo è già un altro discorso: meglio non mettere troppa carne sul fuoco... ;)
Più chiaro di così si muore: non so più quali esempi cercarti per farti capire come funziona la TV e i giochi che sfruttano l'interlace.
[B]
Ora un altra cosa che non sai è che esiste lo standard Pal60, ovvero uno stamdard pal che usa una frequenza di 60Hz...l' xbox può modificare la frequanza del televisore e portarla da 50Hz a 60Hz.
Lo standard PAL è rigorosamente a 50Hz e non 60: forse ti riferisci al SECAM utilizzato in Francia, che è simile al PAL (stessa risoluzione e spazio dei colori), ma lavora a 60Hz.
Comunque ormai le tv che vengono vendute da un po' di anni a questa parte supportano anche i 60Hz, ma ciò non è vero con quelle più vecchie o le prime tv che utilizzano integrati che elaborano le immagini in digitale (): con queste è possibile agganciare esclusivamente il segnale a 50Hz, e non appena se forza uno a 60Hz perdono il sincronismo verticale e le immagini cominciano a "rollare" (non mi viene il termine preciso: si vedono scorrere le immagini in verticale).
Quindi non è che esista un standard Pal60: è che le nuove TV sono realizzate "multistandard" e permettono di agganciare sia i segnali a 50Hz che a 60Hz (coprendo quindi sia PAL che SECAM), e molte adesso supportano anche gli spazi di colore PAL e NTSC. Le case produttrici lo fanno per non perdere tempo e soldi per realizzare prodotti diversi per i diversi standard esistenti: con un solo modello coprono tutto...
Tra l'altro, e mi sembra pure logico, se esistesse realmente lo standard PAL60 e fosse supportato da tutte le TV, i programmatori non si porrebbero neppure il problema di dare la possibilità agli utenti di passare dai 50 ai 60Hz: farebbero andare tutto a 60Hz, sia con l'NTSC che col PAL. Meno problemi, meno perdita di tempo e meno grattacapi da risolvere a causa della diversità di frequenza dei due standard...
[B]
Altra cazzata che hai detto , i giochi vanno massimo a
30fps, ma per piacere , halo che va a 25fps, ma Dead or alive 3 va a 60Fps, e si vede la differenza...ma per piacere...giochi massimo a 30fps..qui scadiamo nel ridicolo...Doa3 va a 60fps, se non ci credi controlla tu stesso...
Ciao !
I discorsi che ho fatto sopra rispecchiano la realtà dei fatti: cosa effettivamente succede quando una console deve spedire le immagini ad una TV, e come i programmatori si comportano per mantenere le immagini perfettamente sincronizzate.
Documentati. Scrivi ai programmatori di quei giochi e chiedigli come fanno a generare 60 immagini al secondo a 640x480 su una normale TV interlacciata senza perdere metà della grafica e senza ottenere quegli artefatti visivi. Vedrai cosa ti risponderanno...
Saluti
cdimauro
25-10-2002, 18:35
Originariamente inviato da Gohansupersaiyan4
[B]Tra l'altro digitando Doa3 e 60fps viene fuori una pagina intera doce lo dicono :
http://www.google.it/search?q=Doa3+60fps&btnG=Cerca+con+Google&hl=it&ie=UTF-8&oe=UTF-8
Cioè secondo te si sono sbagliati tutti quando dicono che Doa3 va a 60fps ?
ma per piacere...
Ah, e aggiungo che i giochi su xbox vanno a 640 x 480 anche sul sistema pal e il chip manda il segnale a tutto scermo...non usano la risoluzione pal...in ogni caso, i giochi che usano ad esempio la 720p , sono renderizzati in 720p, difatti più volte i programmatori hanno detto che la usano perchè dovrebbero adattare il motore ad una altra risoluzione che richiede più risorse...
Poi un altra cosa : il vantaggio che dice della geforce4, ma che bravo, è ovvio che avendo una freqenza maggiore è più avvantaggiata rispetto alla Nv2a nelle alte risoluzioni, ma se tu dici solo che è avvantaggiata senza dire in cosa, allora può essere qualsiasi cosa, e no, ci sono parti dove è la Nv2a ad essere in vantaggio, se non specifiche in cosa è avvantaggiata non ha senso..
Ciao !
Azz. Explorer mi ha perso il messaggio chilometrico che t'avevo scritto!!! :mad:
Vabbè. Molto sinteticamente:
1) DoA3 su una normale TV andrà comunque a 30 fps, a meno che non usi la 640x240 (non interlacciata).
2) Se i giochi su X-Box vanno a 640x480, a quanto renderizzano le immagini? a 640x480? E allora vale il punto 2) delle ipotesi che ho fatto, e non il 3) che sostenitu. D'altra parte, dici che che i giochi che vanno a 720p sono renderizzati a 720p, per cui non fai che confermare questo ragionamento. Deciditi: o il punto 2) o il 3)! ;)
3) Sull'NV2A/GF4, io ho detto chiaramente quali sono i vantaggi di quest'ultimo: vai a rileggerti i messaggi precedenti, in particolare dove si parla di qualità grafica (e anche l'articolo di Anand)... ;)
Ciao
cdimauro
25-10-2002, 18:36
Originariamente inviato da Gohansupersaiyan4
[B]Allora il gioco street ops della Acclaim è uno dei primi gioci che usa la 720p , è confermato che renderizza a quella risolzuione, lo dicono i programmatori...
Bene. E questo cosa significa? Che tutti gli altri usano la 640x480? Ma allora scusa, come ho già scritto nel precedente messaggio, ricadiamo nella seconda ipotesi del ragionamento sull'HDTV che t'avevo fatto, mentre tu mi hai bestemmiato dietro dicendo che valeva sempre la terza! ;)
DE-CI-DI-TI... ;)
E se non sei ancora convinto, vatti a rivedere bene tutti i messaggi precedenti: quel che ho scritto io e quel che m'hai risposto tu... Io ho tutto chiaro in testa... ;)
[B]ora mi puoi dire che cosa gliene frega ai programmatori della acclaim di quello che dicono su Anandtech ?
Ciao !
Ti riporto interamente quello che dicono su AnandTech:
The Resolution Game
One of the biggest debates that raged on among hardware enthusiasts before the Xbox's launch was in regards to what resolutions we could expect games to run at. You must first understand that interlaced NTSC television offers an effective resolution of close to 640 x 480 meaning that there would be no reason to render at above that resolution for the vast majority of the population. Because of the interlaced nature of NTSC video it is only necessary to have half of the horizontal resolution lines in the frame buffer at any given time which is why some PS2 games actually only store 640 x 240 images in the frame buffer. This unfortunately ruins the potential of the PS2 having any reasonable HD output at resolutions higher than 640 x 480 or what is known as 480i. The Xbox however was designed with support for so called high-definition (HD) resolutions in mind.
Most PC users are used to resolutions such as 1024 x 768 but in the world of HDTVs, resolutions are measured in the number of horizontal scan lines. For example, on a 4:3 aspect ratio (width:height) TV, the resolution 1024 x 768 would be represented as 768p since the signal is non-interlaced or progressive scan (at any given time there are 768 horizontal resolution lines). The HD standards do not offer any 768p standard; rather the most popular are 720p and 1080i - both of which are 16:9 standards. The equivalent in terms of resolutions you're used to seeing would be 1280 x 720 and 1920 x 1080; the latter would be interlaced because currently no TVs have enough available bandwidth to offer a true 1920x 1080 resolution.
The Xbox features a Conexant video encoder chip that supports the following TV output resolutions: 480i, 480p, 720p and 1080i. However the input of that chip is governed to a maximum (according to Conexant's tech-docs) of 1024 x 768. Note that the input resolution and the resolution outputted to your TV don't have to be the same, but if they are not the same you're just going to be scaling or shrinking the image and won't get any additional quality out of it.
HD support is enabled through the HD A/V pack. The pack comes with RCA audio and component video cables. The connectors are as follows (from left to right): digital audio out (toslink/optical), analog audio out L/R, component video out (Y Pr Pb).
All currently shipping Xbox games, as far as we know, are rendered internally at 640 x 480 and then sent to the Conexant chip which either interlaces the frames for output to a regular 480i or HD 1080i display or leaves the full resolution lines intact for every frame when being sent to a 480p or 720p output. This means that even for HDTV owners, 480p is the best you're going to get for now. Because of the sheer memory bandwidth requirements, 1080i doesn't make much sense for game developers. At 1920 x 1080 there are 153,600 more pixels (8% more) to be rendered than at 1600 x 1200 and we already know how memory bandwidth intensive 1600 x 1200 can be. Considering that the Xbox only has 6.4GB/s of memory bandwidth to work with, only in games with relatively small textures and low detail can we expect 1080i to be a reality. The much more desirable option is 720p.
In 720p mode there are 135,168 more pixels to be rendered than at 1024 x 768 which is very easily done at above 60 fps by every card since the GeForce2 GTS. The problem you run into next is that most HDTVs don't support 720p but instead support 1080i. This isn't as big of a problem since the conexant chip can scale the output to 1080i and most TVs even scale unsupported inputs to resolutions they do support. This then becomes a question of what is a better scaler, the conexant chip or your HDTV. In the future we hope to see more use of 720p in games because currently even 480p without AA enabled does result in quite a few jagged edges.
This brings us to the next issue which is the lack of AA use in current games. None of the titles we've played with (DOA3, Halo, NFL Fever or Project Gotham) enable any of the multisample AA modes supported by the NV2A GPU. The games inherently look very good because of their higher resolution textures and use of pixel and vertex shader programs however aliasing is still present at varying degrees among these titles. Because of the benefits of multisampled AA, enabling NVIDIA's Quincunx mode would not hurt performance all that much, especially at 640 x 480. The only problem that would occur would be an increased blurriness and a blurring of text which would require some workarounds to reduce but it's definitely possible. The use of a higher render resolution such as 960 x 720 (720p) would tremendously reduce the amount of aliasing; for non-HD users, who make up the majority of the Xbox buying population, it would make much more sense to render at 640 x 480 and enable some form of AA whether it be Quincunx, 2X or 4X mode depending on the memory bandwidth usage patterns of the game itself. While all hope is lost of AA to be enabled in this first generation of titles, hopefully we'll see more use of the technology as developers learn from the mistakes of those before them.
Come vedi Anand ha semplicemente riportato il funzionamento del chip, ciò che accade al variare della risoluzione adottata, e ha tirato fuori delle ipotesi sull'utilizzo della 720p e della 1080i.
Esattamente gli stessi ragionamenti che avranno fatto alla Acclaim... ;)
cdimauro
25-10-2002, 18:37
Originariamente inviato da Gohansupersaiyan4
[B])Lo standard PAL è formato da 25 fotogrammi al secondo
2)In verità i 25 fotogrammi al secondo non esistono , al loro posto si usano 50 semi-fotogrammi o semi-campi dove meta delle linee sono vuote
3)Questi semi - fotogrammi sono creati uno ogni cinquantesimo di secondo (1 sec ÷ 50 semi - fotogrammi) ed hanno la particolarità di avere o le linee pari o quelle dispari vuote
4)I semi fotogrammi viaggiano on-air SEPARATI ad unirli ci pensa la nostra vista
Bene. Ciò che hai detto, con quello che ho scritto prima, collide perfettamente. Perché quindi t'incazzi quando dico che i giochi a 640x480 girano a 25 hz anziché a 50? ;)
[B]
5) perchè confondere fps e Hz ?
Te l'ho già spiegato in un altro messaggio...
[B]
6) i giochi che vanno a 60fps probabilmente vanno a 60 semi-field al secondo...
"Probabilmente"? Diciamo che VANNO a 60 semi-quadri al secondo... ;) Ma in questo caso, e te l'ho già scritto, la risoluzione si abbassa a 640x240 (come buona parte dei giochi per PS2... ;))
[B]in ogni caso ci sono giochi che vanno a 60fps...
Se sono a 640x480 su una TV normale, come t'ho scritto, è impossibile: vanno a 30 fps. Se andassero a 60fps, metà della grafica generata verrebbe "buttata via" e comparirebbero degli artefatti grafici...
cdimauro
25-10-2002, 18:38
Originariamente inviato da Gohansupersaiyan4
[B]Giusto per puntualizzare ancora sulla questione dei 60fps sullo schermo, ecco un altro parere di un programmatore :
you can tell the difference, but i only have a regular tv. regular tv's can only do 30fps anyway, so i'm happy with it."
This is a MYTH.
the 60 feild interlaced nature of television displays effectively allow for graphics information from ALL 60 FRAMES PER SECOND to be displayed on the TV.
That is true if you speak of more recent EDTV sets, but standard televisions, no matter the year, all work on the 60 feild per second timing, therefore, can display 60 fps games as well as a newer standard TV, be that using the old RF adapter all the way up to component. What will change is your image quality: it's inevitable that older sets have worse tube technology and more ancient circuitry.
Ovviamente si riferisce allo standard Ntsc e quindi ai 60Hz e ai 60fps...
Ciao !
Torno a ripeterti: se le immagini sono a 640x480 si verifica esattamente quanto ho già scritto.
Se invece la grafica generata è a 640x240 siamo d'accordo.
Ma lui parla di grafica interlacciata, per cui mi chiedo se sappia come funziona realmente una tv e i fenomeni che si verificano a causa della suddivisione delle immagini interlacciate in due fotogrammi con le righe pari e dispari.
O lo ignora o ha sparato una balla colossale.
Evidentemente non è un buon programmatore... ;)
cdimauro
25-10-2002, 18:39
Originariamente inviato da Gohansupersaiyan4
[B]Quindi i 60fps ci sono eccome...
Ciao !
Vedi sopra. ;)
cdimauro
25-10-2002, 18:40
Originariamente inviato da Gohansupersaiyan4
[B]It depends: is it an EDTV?if so, it will run at 60 Hz progressive.
If not, it'll be like every other TV, running at 60Hz interlaced.
Ciao !
Bene. Quindi se i fotogrammi generati sono realmente 60, puoi vedere bene il gioco e tutta la grafica solamente su una EDTV...
Su una normale TV, metà della grafica si perderà e si noteranno degli artefatti.
Contento? Siamo arrivati alla soluzione finale... ;)
E dire che dal primo messaggio che hai scritto e dalla mia prima risposta siamo andati ben oltre... ;)
P.S. Vedo che hai smesso d'insistere sul carico della CPU per quanto riguarda la grafica: finalmente un segno di saggezza... :)
Gohansupersaiyan4
25-10-2002, 20:42
Allora primo, si dave sempre per accertato il fatto che la ipotesi usata fosse la numero 3.
Secondo, informati moooolto meglio , perchè lo standard pal 60 esiste eccome, ecco una pagina di google che parla di pal 60 :
http://www.google.it/search?q=pal60&btnG=Cerca+con+Google&hl=it&ie=UTF-8&oe=UTF-8
Nel menu dell' xbox c'è un ozione che chiede se il Tv supporta lo standard pal 60 , ma se non esistesse, così supporta uno standard che non esiste ?
Lo standard pal60 esiste eccome e non ha nulla a che vedere col secam...
Terzo, il commento alla Nv2a era riferito ad un altro messaggio.
Infine, guardando i giochi per xbox, la differenza tra un gioco che va a 30fps , ed uno che va a 60fps, si vede eccome, guardare Halo che va a 25fps in confronto a DoA3 che va a 50 o 60Fps a seconda che si attivi l'opzione pal 60 si vede eccome, prova del fatto che il gioco gira a 60fps...la differenza si vede eccome...
Ciao !
Gohansupersaiyan4
25-10-2002, 20:46
Riguardo alla cpu / gpu non ho già detto quello da dire, se un gioco e sfrutta a fondo le funzioni delle nuove schede grafiche, la cpu fa molte meno cose di prima, percui nei giochi dx8 rispetto a quelli dx7 è molto diverso parlare di cpu limited , a dimostrazione del fatto che basta ottimizzare il codice per bene, Unreal tournament 2003 su pc ha bisogno di cpu potenti, mentre Unreal championship su xbox gira a 60Fps , si 60Fps come scritto sul sito ufficiale, con un p3 733...ora è chiaro che il carico della cpu non è molto e può essere impiegata per fare altro se la gpu fa le cose più importanti per la grafica...
Ciao !
Gohansupersaiyan4
25-10-2002, 20:53
Poi nei giochi la CPU fa veramente molto.
L' A.I. è qualcosa di pesante da gestire.
E qui cmq dipende dai giochi... come ti ho già spiegato... giochi molto interattivi con fisica ad alto livello.. pesonaggi, ecc... richiedono un'enorme , continua e massiccia comunicazione tra CPU e GPU.
ma un conto è parlare della grafica, un altro è parlare del gioco nel suo insieme...
Ciao !
cdimauro
25-10-2002, 21:51
Originariamente inviato da Gohansupersaiyan4
[B]Allora primo, si dave sempre per accertato il fatto che la ipotesi usata fosse la numero 3.
Questo l'hai dato per scontato soltanto TU però! Io ho sempre sostenuto che fra le ipotesi la più plausibile fosse la seconda. Poi tuoi messaggi successivi hai detto che la maggior parte dei giochi renderizza i frame a 640x480 e soltanto qualcuno comincia ad utilizzare la 720p. Di fatto ti sei smentito da solo... ;)
[B]
Secondo, informati moooolto meglio , perchè lo standard pal 60 esiste eccome, ecco una pagina di google che parla di pal 60 :
http://www.google.it/search?q=pal60&btnG=Cerca+con+Google&hl=it&ie=UTF-8&oe=UTF-8
Guarda che non si tratta di uno standard vero e proprio ma di "un'estensione" del PAL che gli ultimi elettrodomestici mettono a disposizione da un po' di anni a questa parte.
Leggi questa FAQ che ho trovato col link che m'hai fornito:
PAL
PAL is the TV & video standard used throughout most of Europe and Australasia and works at 50Hz.
The SECAM standard, which is very similar to PAL, is used in France and some other European countries.
Each frame of a PAL image consists of 625 horizontal lines, and each second of playback consists of 25 frames.
Standard PAL is sometimes refered to as PAL50 to distinguish it from the less common PAL60.
PAL60 (or QUASI-PAL) is a feature found on some TV's and offers a halfway measure between PAL50 and the 60Hz NTSC standard. PAL60 converts the playback to PAL colour encoding but keeps the NTSC (525 line/60Hz) scanning rate.
The Samsung 709 can convert standard NTSC to either PAL50 or PAL60 - this is a feature that is virtually unique to Samsung DVD players. The conversion process is sometimes refered to as 'pull-down'.
Inoltre se provi a cercare "Standard PAL60 Phased Alternating Line" non troverai una sola pagina in cui si parli di standard PAL60.
Infatti non esiste nessuno standard PAL60, perché nessuna commissione ufficiale (tipo quella dell'NTSC e del PAL) ne ha delineato le caratteristiche. E nessun paese al mondo lo utilizza.
Fatti un giro e vedrai che si tratta soltanto di una "feature" offerta dai nuovi prodotti "multistandard" e niente più...
[B]
Nel menu dell' xbox c'è un ozione che chiede se il Tv supporta lo standard pal 60 , ma se non esistesse, così supporta uno standard che non esiste ?
Lo standard pal60 esiste eccome e non ha nulla a che vedere col secam...
Vedi sopra. Sbagli di grosso: ormai molte case gli hanno appiccicato il termine "standard" perché si tratta di una caratteristica che a mano a mano è stata accettata da tutte le case.
[B]
Terzo, il commento alla Nv2a era riferito ad un altro messaggio.
Quale? Con tutto quello che s'è scritto, se non mi dai un riferimento non posso mica risponderti...
[B]
Infine, guardando i giochi per xbox, la differenza tra un gioco che va a 30fps , ed uno che va a 60fps, si vede eccome, guardare Halo che va a 25fps in confronto a DoA3 che va a 50 o 60Fps a seconda che si attivi l'opzione pal 60 si vede eccome, prova del fatto che il gioco gira a 60fps...la differenza si vede eccome...
Ciao !
Su quest'argomento t'ho già fornito ampia dimostrazione che su una normale tv non è FISICAMENTE possibile visualizzare 60 fotogrammi (diversi) a 640x480 al secondo senza perdere metà della grafica e introdurre artefatti...
E poi bisogna vedere com'è fatto l'engine di DoA3, e come elabora e spedisce i frame alla tv: magari hanno scritto 60 fps perché considerano i semi-quadri anziché i quadri...
Ciao
cdimauro
25-10-2002, 22:06
Originariamente inviato da Gohansupersaiyan4
[B]Riguardo alla cpu / gpu non ho già detto quello da dire, se un gioco e sfrutta a fondo le funzioni delle nuove schede grafiche, la cpu fa molte meno cose di prima,
Questo è evidente, ma fra le nuove funzioni non ci sono mica quelle che gli permettono di fare a meno della CPU per generare la grafica, ed è questo che tu hai sempre asserito fin dal primo messaggio che hai scritto...
[B]percui nei giochi dx8 rispetto a quelli dx7 è molto diverso parlare di cpu limited,
Appunto: quindi i giochi DX8 dovrebbero essere molto più leggeri, per la CPU, di quelli DX7...
[B]a dimostrazione del fatto che basta ottimizzare il codice per bene, Unreal tournament 2003 su pc ha bisogno di cpu potenti,
Ma UT2003 è scritto per sfruttare bene le DX8: quindi dovrebbe gravare meno sulla CPU, e invece non è così. Tra l'altro mi puoi dire che non sfrutta a fondo tutte le caratteristiche delle DX8, ma questo è relativo più che altro ai Pixel shader (per gli effetti grafici sui singoli pixel e sui colori), mentre i Vertex shader, che sono quelli che si occupano di trasformare i triangoli dallo spazio 3D a quello 2D del monitor (T&L), che è il lavoro più pensante in assoluto (che prima delle GPU gravava interamente sulla CPU), sono usati benissimo.
Non è un caso se il trend delle nuove schede grafiche è quello di aumentare le unità Vertex shader: sono raddoppiate sulle GF4 e saranno quadruplicate nell'NV30...
[B]mentre Unreal championship su xbox gira a 60Fps , si 60Fps come scritto sul sito ufficiale, con un p3 733...
A 640x480 anche UT2003 gira abbastanza decemente su delle CPU ecomiche, fermo restando che la scheda grafica dev'essere abbastanza potente... :)
Per i 60 fps, t'ho già detto tutto quello che avevo da dire... ;)
[B]ora è chiaro che il carico della cpu non è molto e può essere impiegata per fare altro se la gpu fa le cose più importanti per la grafica...
Ciao !
Dalla creazione dei vertici/triangoli alla creazione dell'immagine nel frame buffer il processo è molto lungo, e soltanto la fase di T&L è a carico della GPU. La CPU fa sicuramente la sua parte e non è poco dover creare la scena 3D coi vertici/triangoli che verranno poi spediti alla GPU per essere renderizzati.
Prova a cercare un po' di documentazione nei vari siti che si occupano di programmazione di videogiochi e ti renderai conto con tuoi stessi occhi di come vanno le cose... :)
Ciao
ehmm.... premesso che il vostro dialogo è interessantissimo..... una news non è comunque un luogo adatto per una discussione Off Topic rispetto all'argomento della news stessa...
cdimauro
25-10-2002, 22:24
Originariamente inviato da Gohansupersaiyan4
[B]Poi nei giochi la CPU fa veramente molto.
L' A.I. è qualcosa di pesante da gestire.
Nei giochi attuali non arriva neppure lontanamente al 5%. E considera che i giochi di adesso sono molto più complicati di quelli di una volta. Se vai a vedere come veniva generata l'AI dei giochi di qualche decina d'anni fa, ti renderai conto che bastava una manciata d'istruzioni per calcolare la nuova posizione del personaggio e l'azione che doveva compiere... ;)
L'AI non richiede una grossa mole di calcoli perché dipende da un insieme di dati estremamente ridotto rispetto alla scena vera e proprio. I personaggi da coordinare possono anche essere un centinaio o un migliaio (e le variabili da considerare molto meno), ma c'è parecchia differenza con le decine di milioni di vertici/poligoni da gestire...
[B]
E qui cmq dipende dai giochi... come ti ho già spiegato... giochi molto interattivi con fisica ad alto livello.. pesonaggi, ecc...
Non confondiamo la simulazione della fisica con l'AI dei personaggi: sono due cose diverse. La fisica la si applica ad oggetto della scena, che sia animato o meno, mentre L'AI soltanto agli "oggetti" dotati d'intelligenza.
Quando si genera la scena, prima viene calcolata l'AI (e si applicano i cambiamenti di posizione e azione dei personaggi), poi si applica la fisica agli oggetti che ne risentono e quindi si generano i nuovi vertici/triangoli. Tutto questo lavoro lo svolge la CPU. Una volta generata, la scena 3D viene passata alla GPU che si occuperà di renderizzarla...
[B]richiedono un'enorme , continua e massiccia comunicazione tra CPU e GPU.
Beh, al momento il bus AGP è più sufficiente. Anzi, viene usato anche poco (infatti le differenze fra 1x, 2x, 4x e 8x non sono così marcate). L'X-Box ha il vantaggio di saltare questa fase perché la memoria è condivisa. Ma ripeto: non è un fattore determinante... :)
[B]
ma un conto è parlare della grafica, un altro è parlare del gioco nel suo insieme...
Ciao !
Lo so. Ma ormai le varie GPU e APU si occupano di buona parte del lavoro, quindi per quanto riguarda il gioco nel suo insieme si può parlare soltanto di quelle fasi che ti ho appena scritto... :)
Ciao
cdimauro
25-10-2002, 22:31
Originariamente inviato da Raven
[B]ehmm.... premesso che il vostro dialogo è interessantissimo..... una news non è comunque un luogo adatto per una discussione Off Topic rispetto all'argomento della news stessa...
Mi pare più che giusto. :) Per quanto mi riguarda ritengo d'aver detto già tutto ciò che c'era da dire, per cui mi posso ritenere soddisfatto...
Eventuali discussioni, se ci saranno, li farò in PVT... :)
Scusate il disturbo... :P
Gohansupersaiyan4
25-10-2002, 22:32
allora rispondendo dal principio, io ho dato per più probabile la tarza ipotesi perchè si è sempre parlato di quella nell' ambito dei giochi xbox...appunto per questo pochi giochi la usano...perchè bisognerebbe ottimizzarli per quella risolzuione..
Poi tu hai detto un altra cosa : che lo standard pal 60 non esiste, cavolo invece c'è eccome ed è usato ormai da tutte le tv...
punto due, il messaggio sulla Nv2a era riferito ad un altro messaggio di un altro utente...
per Ut2003, ci credo che richiede una bella cpu, oltre alla hgrafica ha un motore con una gestione degli ambienti e fisica accuratissimo..ci credo che stressa la cpu...
discorso cpu/gpu ripeto non ho mai detto che non serve la cpu, la cpu deve gestire molte cose come ia, fisica e altre cose ho detto che siccome è la gpu che sioccupa delle cose più pesanti da gestire nella grafica, parlare di cpu limited ora è diverso con i giochi dx8...
Ciao !
Gohansupersaiyan4
25-10-2002, 22:33
bello biologicamente evoluto
cdimauro
25-10-2002, 23:07
Segue PVT... ;)
ErPazzo74
25-10-2002, 23:11
Vorrei gettare 1 sasso in questo stagno di risposte...
e AZZARDARE 1a ipotesi.
Se si generano immagini a 640x240 si possono avere 60fps mi sembra di aver capito, ma allora se io facessi i conti a 640x240 e poi facessi uno stretching dell'immagine a 640x480 o 720x... potrei avere 60fps, pochi conti e una qualità "comparabile". Io la tiro ora non mi scuoiate :D
L'idea mi è venuta xché questa tecnica è stata già usata dalla stereographics x i suoi HMD....chiaro che le immagini non erano di alta qualità ma da quel che ho studiato io è meglio 1 frame rate elevato con bassa qualità che non....
soprattutto per esempio con uno sparatutto chiaro che a age II non serve :P
Ciaozzzzzzzzz
cdimauro
25-10-2002, 23:32
Originariamente inviato da ErPazzo74
[B]Vorrei gettare 1 sasso in questo stagno di risposte...
e AZZARDARE 1a ipotesi.
Se si generano immagini a 640x240 si possono avere 60fps mi sembra di aver capito
Esattamente. :)
[B], ma allora se io facessi i conti a 640x240 e poi facessi uno stretching dell'immagine a 640x480 o 720x... potrei avere 60fps, pochi conti e una qualità "comparabile". Io la tiro ora non mi scuoiate :D
Sto già affilando i coltelli... eheheh ;)
A parte gli scherzi, prima di tutto se "stretchassi" (che brutto termine) l'immagine da 640x240 a 640x480 otterresti uno schermo allungato in verticale, perché l'aspect ratio cambierebbe troppo. E poi, in ogni caso, la tv può visualizzare soltanto 50 (60) frame a 640x240, mentre per visualizzare un'immagine a 640x480 sarebbero richiesti due semi-quadri, quindi la frequenza effettiva si ridurrebbe sempre e comunque a 25 fps (30).
Generare 60 frame al secondo a 640x480 sarebbe inutile, come ho già spiegato, perché comunque di ogni fotogramma ne verrebbe visualizzato mezzo, e per di più salterebbero fuori degli artefatti visivi...
[B]
L'idea mi è venuta xché questa tecnica è stata già usata dalla stereographics x i suoi HMD....
Bisogna vedere come vengono renderizzate le righe: per mantenere l'aspect ratio si dovrebbero duplicare i pixel, rendendoli a due a due uguali (risoluzione effettiva di 320 pixel in orizzontale). Ma a questo punto che senso avrebbe? Avremmo ridotto la risoluzione ad 1/4 del potenziale massimo offerto dalla TV... :(
[B]chiaro che le immagini non erano di alta qualità ma da quel che ho studiato io è meglio 1 frame rate elevato con bassa qualità che non....
Infatti se si vuole un frame rate elevato non si utilizzano le risoluzioni interlacciate e ci si accontenta di una risoluzione inferiore (640x240 anziché 640x480).
E' quello che fanno alcuni giochi per PS2: piuttosto che lavorare in alta risoluzione (640x480, con l'interlace) e avere a che fare con gli artefatti visivi, preferiscono utilizzare quella media (640x240), ma senza l'interlace, quindi senza artefatti e a 60 fps...
[B]
soprattutto per esempio con uno sparatutto chiaro che a age II non serve :P
Ciaozzzzzzzzz
Infatti, se dovessi lavorare ad un gioco, valuterei bene il genere e l'impatto che ha sul giocatore, prima di decidere quale risoluzione utilizzare per il rendering... ;)
P.S. Vedo che la discussione interessa un po' di gente. Se ci sono ancora dei dubbi, magari converrebbe spostarci su qualche sezione a tema (non so quale).
Fatemi sapere... :)
Adesso s'è fatto veramente tardi: buonanotte a tutti... ;)
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.