|
|
|
![]() |
|
Strumenti |
![]() |
#61 |
Senior Member
Iscritto dal: Jul 1999
Città: Palermo
Messaggi: 7332
|
;-)
Ha incrementi lievi perché è CPU LIMITED e poi sai bene che lo stesso 3DMark è molto cpu dipendente...
Se infatti vai a fare un test con FSAA (l'unico modo di renderlo + pesante) e a risoluzioni esasperate vedi che non batte la GF4 4600... ma la STRABATTE! |
![]() |
![]() |
![]() |
#62 | |
Senior Member
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26110
|
Quote:
Certamente ci si può dirvertire ugualmente anche su un hardware più modesto, ma la percezione del realismo è diversa... E' questo ciò a cui mi riferivo... ![]()
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro @LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys |
|
![]() |
![]() |
![]() |
#63 | |||||||
Senior Member
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26110
|
Re: RE to cdimauro e Erpazzo
Quote:
Insomma vedi di metterti d'accordo prima con te stesso. E soprattutto, prima vai controllarti bene i test che sono stati fatti sui siti più disparati, che dimostrano ESATTAMENTE il contrario di ciò che hai detto, sia prima che dopo... [b] Quote:
![]() [b] Quote:
![]() [b] Quote:
![]() [b] Quote:
Sono delle mie supposizioni e comunque aspetto l'arrivo dell'NV30 per confermarle o ricalibrarle... Sicuramente non mi baso sul fascino di una marca per scrivere dei messaggi che la esaltano e gettano fango sulla concorrenza. Diciamo che preferisco spendere meglio il mio tempo libero... ![]() [b] Quote:
Se in quel messaggio che ho scritto parlavo di un ragazzino che deve tornare sui banchi di scuola, è perché è questa l'impressione che mi hai dato. Basta leggerlo. Sembra di tornare ai tempi delle medie quando facevamo le gare per vedere chi ce l'aveva più lungo. Secondo te come avrei dovuto giudicare uno che, a parte quello che ha scritto, mi chiude un messaggio con "cmq adesso con l'nv 30 vedrete cosa significa "nuova generazione " di scheda video!!uaz ua z uaz!!!sono sicro che l'nv30 fara' fuoro anche l'r 350!!ciaoz!!"? Come un adulto o un ragazzino? Fa un po' tu... [b] Quote:
Insomma, è come quando Rocky dice "non fa male, non fa male": ma a chi lo vai a raccontare? ![]() ![]() ![]() ![]() Al prossimo round, quando arriverà l'NV30, vedremo se ci sarà una batosta o una vittoria ai punti (non del 3DMark! ![]()
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro @LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys |
|||||||
![]() |
![]() |
![]() |
#64 |
Senior Member
Iscritto dal: Oct 2001
Messaggi: 2563
|
un commento, qualcuno dice che bisogna avere un processorone per sfruttare un nv30 o una 9700, hmm, attivando antialias e anisitropo al massimo non si dovrebbe sfruttare tutto quello che vanza della scheda?(visto che son calcoli a sole spese della gpu?) ^_^
|
![]() |
![]() |
![]() |
#65 | |
Senior Member
Iscritto dal: Sep 2001
Messaggi: 1521
|
Quote:
Magari si possono utilizzare per altre cose tipo sequenze di cambi di stato etc..... Vantaggio enorme ma relativo invece è quello che per operazioni "rare" tipo lettura di una parte del buffer o renderizzazione in 1 buffer in memoria etc.....avere memoria unificata e non dover passare per l'AGP è un vantaggio ENORME e la differenza è mostruosa...... D'altro canto però queste operazioni sono lente appunto xché usate raramente e quindi nessuno si è interessato mai x renderle veloci........
__________________
Ciao a Tutti dal Pazzo!!! ![]() ![]() Asus M4A79XTD EVO + X3 720 + ati 9200 + 4Gb OCZ 1800Mhz + WD BLACK 750Gb |
|
![]() |
![]() |
![]() |
#66 |
Senior Member
Iscritto dal: Sep 2001
Messaggi: 1521
|
Re: RE to cdimauro e Erpazzo
Già cdimauro ti ha fatto notare molte incongruenze e ti ha risposto x cui aggiungo solamente che forse abbiamo visto test diversi!!!! Io ho visto test a 1280 o 1600 in cui la differenza è abbissale tra ATI e NVIDIA, 2/3 o + volte + veloce la 9700. Se poi tu ti compri una scheda video da 400€ come la 4600 x giocarci a 1024 (come io faccio ora col Ge Force MX
![]() ![]() Per cui io non sono 1 tifoso come tu invece dimostri dai tuoi post. Oltretutto non essendo io possessore di nessuna delle 2 schede in questione direi di essere super partes. Quel che io scrivo in un post è solo l'espressione del mio pensiero e lo esprimo in base alla mia esperienza e in base alle mie conoscenze informatiche e di grafica 3D. Non avrò la palla di vetro ma ho sicuramente il diritto di esprimere quel che penso (e non di dire delle verità) e di vedere cosa ne pensano gli altri utenti del forum. Ciao e alla prox........... ![]()
__________________
Ciao a Tutti dal Pazzo!!! ![]() ![]() Asus M4A79XTD EVO + X3 720 + ati 9200 + 4Gb OCZ 1800Mhz + WD BLACK 750Gb |
![]() |
![]() |
![]() |
#67 | |
Senior Member
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26110
|
Quote:
Ebbene, penso che questo concetto sia difficilmente applicabile a chi, oggi, compra una scheda per giocarci, perché se su un Athlon XP 1600+, che costa una miseria, si riescono ancora a fare 150 fps invece di 300 a Quake 3 su una Ati 9700, o 100 fps invece di 200 a Unreal Tournament 2003, non penso che possa fregare di meno a qualcuno se poi gioca a 1600x1280 con AA4x, filtro anisotropico (per dire), e tutti gli effetti attivati... Tra l'altro, giocando alle alte risoluzioni e con tutti gli annessi e connessi, il lavoro si sposta sempre di più dalla parte della scheda grafica. Infatti il calcolo dell'intelligenza artificiale dei personaggi e di tutta la geometria della scena che cambia, che è sempre a carico della CPU, mi pare rimanga invariato perché la quantità di poligoni da elaborare per ogni frame generato è sempre la stessa... Insomma, i frame al secondo generati sono ben più che sufficienti per godersi un gioco, e alla fine non è proprio questo ciò che conta? Con l'Amiga godevo con i giochi che arrivavano a 50 fps, e un po' storcevo il naso con quelli che andavano a 25 a causa del "tremolio" delle immagini, ma oggi la situazione mi pare LEGGERMENTE cambiata... eheheeh ![]()
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro @LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys |
|
![]() |
![]() |
![]() |
#68 | |||
Senior Member
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26110
|
Quote:
Magari mi sbaglio, ma mi pare che la situazione reale sia quella che ho descritto... ![]() [b] Quote:
![]() ![]() [b] Quote:
![]()
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro @LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys |
|||
![]() |
![]() |
![]() |
#69 |
Senior Member
Iscritto dal: Sep 2001
Messaggi: 1521
|
Forse non mi ricordo bene l'ho letto due mesi fà, comunque questo è il pezzo riguardante quel che ti dicevo:
"---------- Coding Tip ---------- When rendering using the hardware transform-and-lighting (TnL) pipeline or vertex-shaders, the GPU intermittently caches transformed and lit vertices. Storing these post-transform and lighting (post-TnL) vertices avoids recomputing the same values whenever a vertex is shared between multiple triangles and thus saves time. The post-TnL cache increases rendering performance by up to 2x. Because the post-TnL cache is limited in size, taking maximum advantage of it requires rearranging triangle rendering-order. The easiest way to rearrange triangle-order for the post-TnL cache is to use the NVTriStrip library (.LIBs and source are available for free: http://developer.nvidia.com/view.asp...istrip_library). If you are interested in exploring the performance characteristics of the post-TnL cache yourself, here are the details: The post-TnL cache is a strict First-In-First-Out buffer, and varies in size from effectively 10 (actual 16) vertices on GeForce 256, GeForce 2, and GeForce 4 MX chipsets to effectively 18 (actual 24) on GeForce 3 and GeForce 4 Ti chipsets. Non- indexed draw-calls cannot take advantage of the cache, as it is then impossible for the GPU to know which vertices are shared. The following example explores how these restrictions translate into optimally rendering a 100x100 vertex mesh. The mesh needs to be submitted in a single draw-call to optimize batch- size. The draw-call must be with an indexed primitive-type (see above), either strips or lists -- the performance difference between strips and lists is negligible when taking advantage of the post-TnL cache. For illustration purposes, our example uses strips. Rendering the mesh as 99 strips running along each row of triangles and stitching them together into a single strip with degenerate triangles only marginally takes advantage of the post-TnL cache. Only two vertices in each triangle hit the post-TnL cache (i.e., one vertex is transformed and lit per triangle). Let's limit the length of each row-strip to at most 2*16 = 32 triangles. The mesh thus separates into ceil(99/16) = 7 columns of strips, each no longer than 32 triangles. Rendering all row-strips in column 0 first, from top to bottom and connected via degenerate triangles, allows an 18 entry post-TnL cache to store not only the last two vertices for each triangle but also the whole top row of vertices for each row-strip. Thus, only 1 vertex for every 2 triangles needs to be computed. For the vertices to be in just the right order such that the top row of vertices is in the post-TnL cache, the top-row of vertices of each column should be sent as a list of degenerate triangles."
__________________
Ciao a Tutti dal Pazzo!!! ![]() ![]() Asus M4A79XTD EVO + X3 720 + ati 9200 + 4Gb OCZ 1800Mhz + WD BLACK 750Gb |
![]() |
![]() |
![]() |
#70 |
Senior Member
Iscritto dal: Mar 2002
Città: hell's kitchen
Messaggi: 1388
|
Allora come detto tante volte dai programmatori se un gioco usa vertex e pixel shaders, non è la cpu a dover gestire la grafica...la prova di questo si ha guardando i giochi per xbox...milioni di poligoni al secondo, e cpu libera di dedicarsi ad altre cose...ora ho fatto l'esempio dell' xbox perchè ha tanti giochi dx8...per la risoluzione, in usa le HDTV sono molto diffuse, e tramite il cavo component supporta le risoluzioni delle HDTV , ci sono già dei giochi che le supportano...
Ciao ! |
![]() |
![]() |
![]() |
#71 | |
Senior Member
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26110
|
Quote:
![]()
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro @LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys |
|
![]() |
![]() |
![]() |
#72 | ||
Senior Member
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26110
|
Quote:
Nella realtà dei fatti, se prendi una GeForce4 4200, non puoi pretendere di far girare Unreal Tournament 2003 al massimo del dettaglio su una CPU qualunque. E la differenza, se è veramente tutto gestito dalla GPU, non dovrebbe esserci fra una CPU e un'altra, perché con le DirectX 8.0+ e la GPU "fac totum" tutto sarebbe a carico di quest'ultima, che lavorerebbe sempre e comunque nella sua velocissima (più di quella dell'X-Box) memoria video... Sappiamo tutti che non è così e che la CPU, per forza di cose, svolge un ruolo non indifferente nella generazione della grafica. Non mi puoi venire a dire che l'X-Box è un discorso a sé stante, perché la CPU è un banalissimo (ormai) P3 a 700Mhz, e la GPU è anche più scarsa delle GF4 4200 (e con meno banda per la memoria video, per giunta condivisa con tutto il resto). Insomma, per chiudere il discorso, non ci vuole molto a capire che le cose non stanno affatto come hai riportato: basta solo un po' di logica per arrivare alle conclusioni di cui sopra... [b] Quote:
![]() E' vero che è possibile collegarlo all'X-Box e ci sono dei giochi che supportano quelle risoluzioni, ma questo non richiede nessuno sforzo da parte delle software house, perché gestire delle risoluzioni diverse è tanto semplice quanto su un qualunque PC... ![]() Resta il fatto che il target è pur sempre la normalissima TV NTSC o PAL, e i giochi sono pensati per funzionare bene su questa: il resto è grasso che cola... ![]()
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro @LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys |
||
![]() |
![]() |
![]() |
#73 |
Senior Member
Iscritto dal: Mar 2002
Città: hell's kitchen
Messaggi: 1388
|
Allora un Hdtv costa a partire da 650 dollari se t sembra tanto a me non lo sembra proprio.
Fatti un giro su un forum americano e lo constaterai tu stesso. Allora naturalmente prendi come esempio ut2003 che non usa a pieno vertex e pixel shaders, mentre invece doom3 si basa su quelli... Ora qui ci sono giochi su xbox che per come numero di poligoni un p3 733 non riuscirebbe mai a gestire, come fa ? E come mai ha la cpu liberaper fare altre cose a detta dei programmatori , come ad esempio quelli di morrowind : "And just FYI, the real limitation on the Xbox is NOT the CPU -- it's the memory. Only 64MB total, and that is shared system and graphics RAM. Yes, you can use the hard disk drive and create virtual memory -- we do it -- but you have to use that judiciously because it is very slow compared to system RAM. But that limitation certainly did not affect the lighting. WormGod on taking advantage of the Nvidia hardware better: We take so much advantage of it that it filed for a restraining order on us. " Da anandtech : http://www.anandtech.com/showdoc.html?i=1561&p=14 " The Xbox host CPU however is the very well known Coppermine derived core which although has the unfortunate limitations of the x86 ISA, also carries the benefits of being a very well known architecture with much ISV support. The processor runs at a higher clock rate than the EE but we all know the meaninglessness of clock rate as a single performance metric. What is important to note is the 128KB L2 cache with a 256-bit data bus comes in quite handy in keeping the execution units of the processor busy and even more important is that the CPU does not have to handle any of the T&L calculations. If games are written properly the host CPU should only be used for AI, physics and other such calculations, leaving the GPU to handle all of the T&L and actual 3D rendering. Removing developers from the mindset of the host CPU handling T&L has apparently proved somewhat difficult but the better looking games are testament to the potential of the Xbox GPU when utilized properly. " Ciao ! |
![]() |
![]() |
![]() |
#74 | |||||||
Senior Member
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26110
|
Quote:
Tornando al supporto all'HDTV dell'X-Box, il suo uso non è certamente "gratuito": esattamente come accade per il PC, all'aumentare della risoluzione, diminuiscono le prestazioni. Infatti riporto un pezzo dell'articolo di cui mi hai spedito il link: Quote:
[b] Quote:
[b] Quote:
![]() [b] Quote:
[b] Quote:
[b] Quote:
Immagina tutti i triangoli che cambiano di posizione, ruotano, ecc. ecc. Tutto deve essere calcolato dalla CPU, che poi passa i risultati alla GPU. Quest'ultima agisce solamente a livello di rendering: prende la scena finale, applica le trasformazioni (setup, clipping, correzione prospettica, ecc.) dei triangoli, i calcoli delle luci presenti, passa le informazioni agli eventuali vertex e poi pixel shader, applica le texture, e genera il frame buffer (diciamo che + o - è così ![]() Forse dovresti documentarti meglio sulle varie fasi attinenti alla realizzazione di un videogioco: non è così semplice come sembra... D'altra parte, ti sarai chiesto come mai esistono in circolazioni così tanti engine 3D che hanno un impatto sull'utilizzo della CPU, della banda di memoria, e della GPU così diverse fra loro. Se fosse così semplice come la fai tu, dovrebbero girare più o meno allo stesso modo su qualunque macchina dotata di GPU, e soprattutto la CPU potrebbe passare quasi tutto il tempo a girarsi i pollici, ma non è assolutamente così! Ripeto per l'n-esima volta: documentati. E vedrai che la realtà è alquanto diversa da come l'hai dipinta... Saluti
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro @LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys |
|||||||
![]() |
![]() |
![]() |
#75 |
Senior Member
Iscritto dal: Mar 2002
Città: hell's kitchen
Messaggi: 1388
|
Allora la perdita di prestazioni non si ha usando la 480p perchè il segnale esce sempre il 640 x 480 non interlacciati e poi vengono interlacciati i meno a secondo del televisore, punto primo.
Aumentando la risoluzione non aumenta il numero di poligoni e stai sicuro che se il gioco usa una risoluzione più alta sarà ottimizzato per farlo... Gli HDTv hai detto non sono diffusi e costano tanto, non è vero ti ho dimostrato il contrario , e sono parecchio diffusi invece... punto terzo il tuo discorso non è supportato dai fatti, il mio si. Quello che dico non è giusto ? Allora panzer gragon oorta non esiste ? Come mai il programmatore di Halo2 dice che avendo la cpu libera può usarla per avere ottime gestioni dei personaggi ? Ora Halo 2 ha una grafica eccezzionale ed un gestione dei personaggi anche eccezzionale, mentre con il tuo discorso sembra che una cosa debba escludere l'altra, mentre così non è... Riguardo ut2003 lo stesso programmatore ha detto prima che il gioco li usava per tutto, poi ha detto dopo che non li usa in modo massivo, mentre son sicuro che doom3 li usa molto di più... I giochi per xbox che sfruttano vertex e pixel shaders muovono un numero di poligoni che se il tuo discorso fosse corretto non potrebbero muovere, allora come fanno ? Guarda qui :http://www.nextgame.it/Immagini/sega/panzerdragoonorta/panzerdragoonorta_preview20020702_xbox0.jpg Ciao ! |
![]() |
![]() |
![]() |
#76 |
Senior Member
Iscritto dal: Mar 2002
Città: hell's kitchen
Messaggi: 1388
|
Cioè continui a insitere con la storia del processore ma non ho bisogno di dimostrare che ho ragione, perchè basta guardare i giochi per xbox che confermano quello che dico...
Ciao ! |
![]() |
![]() |
![]() |
#77 |
Senior Member
Iscritto dal: Mar 2002
Città: hell's kitchen
Messaggi: 1388
|
Tra l'altro dove sarebbe il vantaggio della geforce4 nel Pc :
guarda qua : "that the customized DirectX 8 version the Xbox is using is more advanced than the ones the Radeon 8500 and the Geforce4 use. For instant, Xbox's vertex shaders have 192 contant registers (96 for Radeon 8500 and Geforce4). Vertex shading programs on Xbox can be 136 instruction long (128 for Radeon 8500 and Geforce4)." Poi : "GSUK: Tell us about the Graphics Chip - is that still going to be the NV 25? JA: Well what we've always called it officially is the NV2A. A lot of people have called it the NV25, but nVidia told us to call it the 2A instead and there are two reasons for that: one, the NV25 in the event that nVidia wouldn't use that part would be a PC part and it would be put in here. The second thing is the part that we have in the box is not just a super clocked NV20 but it actually draws some of the geometry features out of the NV30. So if you put a label on it, it's really an NV27.5 or somewhere in that range in terms of the family. But it doesn't really have an official name so we're settling on the NV2A and calling it a day at that. As you know we upped the CPU and downgraded the GPU recently but we'll still have the three times performance we were shooting for. http://www.google.it/search?q=cache:z9gUDN7cIw4C:extra.gamespot.co.uk/news/2001/01/9031.html+nv2a+specification&hl=it&ie=UTF-8 " Poi, ancora analisi delle funzioni della Nv2a da parte di un programmatore : Just answer these simple questions: The NV2A supports signed stencil buffer additions. The NV-30 supports signed stencil buffer additions. Does the GeForce4 support signed stencil buffer additions? Yes or no? Now, the NV2A supports Accuview, and 4Xs FSAA. Does the GeForce3 support either of these features? Yes or no? If the NV2A has features which are not supported in the GeForce3, but are in the GeForce4, does that make it above the GeForce3? If the NV2A supports features not in the GeForce 4, but are in the NV-30, does that make it above the GeForce4? Ciao ! |
![]() |
![]() |
![]() |
#78 |
Senior Member
Iscritto dal: Mar 2002
Città: hell's kitchen
Messaggi: 1388
|
Se la GPU si prende l'onere di effettaure la trasformazione dei vertici, l'illuminazione e il clipping ti assicuro che alla CPU non resta altro che tener in piedi il sistema operativo e dar vita all'intelligenza artificiale. Perchè scusa nell'X-Box cosa succede ? Tu pensi veramente che la CPU gestisca la grafica ? Ma dai, carica l'OS e gestisce le comunicazione tra i chip set e le periferiche, non certo la mole di grafica che fanno vedere i giochi x xbox..
Ciao ! |
![]() |
![]() |
![]() |
#79 | ||||||
Senior Member
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26110
|
Quote:
Sarebbe possibile far passare direttamente il frame buffer (e quindi renderizzare alla risoluzione nativa dell'HDTV), ma non lo so si fa perché l'operazione richiederebbe una banda di memoria enorme rispetto alla 640x480... C'è scritto proprio là sopra e più in particolare nel resto della pagina di Anand, vai pure controllare se vuoi... [b] Quote:
[b] Quote:
[b] Quote:
Non sai neppure come viene realizzato un engine 3D, tutte le fasi di cui ha bisogno e quali di queste pesano sul processore e quali sulla scheda video... [b] Quote:
Se è per questo la Sega dava il DreamCast in grado di renderizzare 3 milioni di poligoni al secondo, mentre alcuni degli ultimi giochi riescono a tirarne fuori ben 5... E' un discorso di ottimizzazione e sfruttamento dell'hardware. Ma il punto della questione verte sull'occupazione della CPU, non sull'esistenza o meno di un gioco che genera 20 milioni di poligoni al secondo. Certo che può farlo, se spreme per bene ANCHE la cpu. Non puoi portarmi ragionamenti che se non c'entrano col discorso originale solo per portare acqua al tuo mulino: un conto è parlare della possibilità di avere giochi con un mare di poligoni, e un'altra cosa è l'occupazione della CPU. Io ho detto che le due cose sono legate e che dipendono strettamente l'una dall'altra. Tu ancora non hai portato una prova che dimostri che invece non sono legate e che la CPU non è vincolante per la prima. [b] Quote:
Quel che tu non riesci a capire è che la fase di T&L è una cosa (la fase finale), e la generazione della scena finale da renderizzare è un'altra cosa (la fase iniziale). La prima (seconda fase) è, ormai, competenza della GPU, e la seconda (prima fase) però resta ancora a totale carico della CPU. Quella più pesante è sicuramente la fase di T&L gestita dalla GPU, per cui il fatto che adesso sia a suo totale carico è una gran cosa, e nessuno lo mette in dubbio. Ma la prima fase richiede comunque un impegno di risorse notevole da parte della CPU. E più aumentano i poligoni da gestire, più diventa oneroso il loro calcolo da parte della CPU. Quel che tu non conosci e quindi non riesci a capire bene è che queste due fasi sono distinte fra loro. Mi sicca dovertelo ripetere per l'n-esima volta: documentati su come vengono realizzati gli engine 3D e finalmente potrai capire il mio ragionamento. Succo del discorso: Vertex e Pixel shader sono i benvenuti, ma la loro parte la svolgono nella fase di T&L e quindi nella GPU, non in quella della generazione della scena da renderizza e quindi nella CPU. I programmatori sono entusiasti del fatto che ciò sgrava la CPU ANCHE di questo compito, per cui è libera di fare altro, ma gli resta da generare la scena, che non è certo poca cosa. In confronto all'Emotion Engine del PS2 qui è il paradiso, perché con la PS2 l'EE deve occuparsi invece di TUTTO. E' chiaro il discorso? Se hai ancora dei dubbi, informati, come ti ho già detto, e dopo ne possiamo anche riparlare...
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro @LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys |
||||||
![]() |
![]() |
![]() |
#80 | |
Senior Member
Iscritto dal: Jan 2002
Città: Germania
Messaggi: 26110
|
Quote:
Per di più, per "dimostrare" che l'X-Box non usa la CPU mi vieni a dire che è sufficiente guardare i giochi che ci girano? Lo capisci che così non dimostri assolutamente niente, perché i discorsi non sono neppure attinenti? Io ti propongo una soluzione definitiva alla nostra disputa: prendiamo una X-Box, dissaldiamo la pista che porta il clock al processore e lo colleghiamo ad un divisore di clock che lo riduce ad 1/8 (da 733 a 91Mhz) e poi vediamo a quanto girano i giochi. Visto che il processore, secondo il tuo ragionamento, passa il tempo a girarsi i pollici, perché il calcolo della fisica e dell'IA posso assicurarti che porta via un quantità di tempo irrisoria se non si vanno a cambiare anche i vertici dei poligoni, i giochi dovrebbero girare esattamente come prima (parlo del gioco vero e proprio, non della fase di caricamento con annessi e connessi, che chiaramente risulterà più lenta). Che ne dici, facciamo una prova? La X-Box alla fine la pagherà chi perderà la "sfida"... ![]()
__________________
Per iniziare a programmare c'è solo Python con questo o quest'altro (più avanzato) libro @LinkedIn Non parlo in alcun modo a nome dell'azienda per la quale lavoro Ho poco tempo per frequentare il forum; eventualmente, contattatemi in PVT o nel mio sito. Fanboys |
|
![]() |
![]() |
![]() |
Strumenti | |
|
|
Tutti gli orari sono GMT +1. Ora sono le: 18:35.