|
|||||||
|
|
|
![]() |
|
|
Strumenti |
|
|
#81 | |
|
Senior Member
Iscritto dal: Oct 2002
Città: San Jose, California
Messaggi: 11794
|
Quote:
E se per programmare un determinato effetto posso eseguire indifferentemente i comandi X e Y oppure X e Z (e' solo esempio) ed entrambe le sequenze mi danno lo stesso risultato a video, e' possibile, e succede, che una GPU esegua X e Y piu' velocemente di X e Z, mentre per un'altra GPU e' il contrario. L'ottimizzazione per una GPU consiste nello spedire i comandi di rendering nella sequenza che viene eseguita piu' velocemente e questa sequenza puo' essere differente per un'altra GPU. Lo stesso discorso vale per gli shader: se lo shader A e lo shader B producono lo stesso risultato, una GPU magari esegue lo shader A piu' velocemente dello shader B e un'altra GPU esegue piu' velocemente il B. Ovviamente questo accade perche' due GPU hanno due architetture diverse e i progettisti hanno fatto scelte diverse per quanto riguarda quali operazioni eseguire piu' velocemente.
__________________
"We in the game industry are lucky enough to be able to create our visions" @ NVIDIA |
|
|
|
|
|
#82 | |
|
Bannato
Iscritto dal: Oct 2004
Città: Napoli;Pozzuoli;Licola
Messaggi: 30
|
Quote:
|
|
|
|
|
|
#83 | |
|
Senior Member
Iscritto dal: Oct 2002
Città: San Jose, California
Messaggi: 11794
|
Quote:
__________________
"We in the game industry are lucky enough to be able to create our visions" @ NVIDIA |
|
|
|
|
|
#84 | |
|
Bannato
Iscritto dal: Oct 2004
Città: Napoli;Pozzuoli;Licola
Messaggi: 30
|
Quote:
La X800XT PE come ti sembra? |
|
|
|
|
|
#85 | |
|
Senior Member
Iscritto dal: Aug 2000
Messaggi: 17963
|
Quote:
imho ad uno come fek ovvio garbi di più nv40, perchè essendo più avanzato di r420 può sbizzarrirsi e "giocare" con le nuove feature. mi sembra logico che gli sviluppatori testino sempre le novità per poi scoprirne i segreti e cominicare ad usarle. ovviamente fek magari la pensa totalmente diversa
__________________
. |
|
|
|
|
|
#86 | |
|
Bannato
Iscritto dal: Oct 2004
Città: Napoli;Pozzuoli;Licola
Messaggi: 30
|
Quote:
|
|
|
|
|
|
#87 | |
|
Senior Member
Iscritto dal: Aug 2000
Messaggi: 17963
|
Quote:
dipende che intendi per cambiamenti radicali.
__________________
. |
|
|
|
|
|
#88 | |
|
Bannato
Iscritto dal: Oct 2004
Città: Napoli;Pozzuoli;Licola
Messaggi: 30
|
Quote:
Quando saranno implementate nelle schede? |
|
|
|
|
|
#89 | |
|
Senior Member
Iscritto dal: Jan 2004
Città: rimini
Messaggi: 699
|
Quote:
|
|
|
|
|
|
#90 | |
|
Bannato
Iscritto dal: Oct 2004
Città: Napoli;Pozzuoli;Licola
Messaggi: 30
|
Quote:
|
|
|
|
|
|
#91 | |
|
Senior Member
Iscritto dal: Jan 2004
Città: rimini
Messaggi: 699
|
Quote:
|
|
|
|
|
|
#92 | |
|
Senior Member
Iscritto dal: Mar 2001
Messaggi: 5390
|
Quote:
con R600 e NV60 |
|
|
|
|
|
#93 | |
|
Bannato
Iscritto dal: Oct 2004
Città: Napoli;Pozzuoli;Licola
Messaggi: 30
|
Quote:
|
|
|
|
|
|
#94 | |
|
Senior Member
Iscritto dal: Mar 2001
Messaggi: 5390
|
Quote:
l'unificazione fisica di PS e VS; il che vuol dire un'unica unità di calcolo in grado di svolgere operazioni sia geometriche che su pixel o texture indifferentemente; questo comporterà architetture di tipo completamente diverso, in cui si avranno grandi (rispetto ad oggi) quantitativi di registri sui chip (che tradotto significa maggior velocità d'elaborazione, perchè i chip avranno la possibilità di caricare un molto maggior numero di dati da elaborare per ogni ciclo di clock), più elevato parallelismo (immagina, ad esempio che le sei vertex pipeline e le 16 pixel pipeline di NV40 o di R420 diverrebbero 22 pipeline in grado di operare indifferentemente su tutti i tipi di dati in input; il vantaggio è che si riducono drasticamente i tempi morti che, nelle elaborazioni attuali sono fisiologici, e dipendono dal modo in cui gli shader sono compilati e riorganizzati a basso livello; inoltre, i programmatori saranno molto più liberi di scrivere il codice: adesso, ad esempio, se scrivi istruzioni per i vertici e, poi, istruzioni per i pixel, hai un aprima fase in cui i PS lavorano poco o nulla e una seconda in cui sono i VS ad essere pressochè inoperosi; se scrivi istruzioni miste si dovrà comunque seguire un certo ordine sequenziale nell'elaborazione che porterà, inevitabilmente, a rendere inoperose alcune delle unità di calcolo che dovranno attendere il risultato di operazioni svolte altrove). Insomma, il mio amico fek non dovrà più preoccuparsi troppo di cercare di bilanciare il carico di lavoro tra pixel shader e vertex shader, ma potrà sbizzarrirsi a pensare ad altro Ultima modifica di yossarian : 06-10-2004 alle 23:01. |
|
|
|
|
|
#95 |
|
Senior Member
Iscritto dal: Oct 2000
Città: Reggio Emilia
Messaggi: 17233
|
Yoss, domanda stupida. Ovviamente il codice attuale girerebbe sulle schede con unificato PS e VS ma in che modo. Ritieni possibile un'architettura subito veloce come quella attuale nell'eseguire shaders. Mi spiego meglio, o almeno cerco. Ora come ora direi che R420 e Nv40 e ancora in futuro R520 e Nv50 saranno dei missili a livello di esecuzione shader attuali (intendi "scritto come si usa ora"), ritieni possibile un salto di architettura indolore a livello di esecuzione o prevedi un rallentamento e un ulteriore affinamento successivo?
Che spiegazione del cacchio spero di averti fatto capire cosa intendo.
__________________
Twinkle, twinkle, little star how I wonder what you are. |
|
|
|
|
#96 |
|
Senior Member
Iscritto dal: Jan 2002
Città: Roma
Messaggi: 1028
|
Che palle ste discussioni inutili, cioè c'è riportato pure l'intervento di un programmatore di giochi che frequenta il forum che ci spiega come sia possobile tramite i driver della scheda, individuare i colli di bottiglia che si hanno con le varie applicazioni direcx e aumentare le prestazioni, in questo caso il punteggio, in quella applicazione/gioco. Ma poi ma come si fà a dire che la Ati è + potente nei vertex shader dopo che non è riuscita a mettere nelle x800 nemmeno il vertex 3.0
__________________
Un giorno le macchine riusciranno a risolvere tutti i problemi, ma mai nessuna di esse potrà porne uno. (Albert Einstein) Ultima modifica di jumperman : 07-10-2004 alle 00:13. |
|
|
|
|
#97 | |
|
Senior Member
Iscritto dal: Nov 2002
Città: Budapest
Messaggi: 19133
|
Quote:
![]() cmq la x800 è più forte nei VS della 6800 nei PS2.0 la situazione si ribalta bYeZ!
__________________
Improvise, adapt, overcome. |
|
|
|
|
|
#98 | |
|
Senior Member
Iscritto dal: Mar 2001
Messaggi: 5390
|
Quote:
in teoria, nell'esecuzione della singola istruzione, un'architettura dedicata è sicuramente più veloce; oltretutto, in questa prima fase di passaggio verso architetture di tipo superparallelo, si avranno, sicuramente, strutture di tipo "misto", con alcune unità di calcolo comuni ed altre ancora dedicate a svolgere mansioni relative a calcoli geometrici o a calcoli su pixel; però la maggior lentezza della singola unità sarà compensato da alcuni vantaggi non trascurabili: 1) la possibilità di ridurre drasticamente i tempi di inattività di un blocco della pipeline. Adesso i carichi di lavoro non risultano equamente distribuiti proprio a causa del fatto che ogni pipeline presenta una sequenza di operazioni da eseguire in un ben preciso ordine; cerco di spiegarmi con un esempio: si invia una sequenza di istruzioni relative ad operazioni sui vertici e su pixel e texture; le unità PS devono necessariamente aspettare il risultato dell'elaborazione delle geometrie prima di poter operare; nella fase successiva la palla passa alle pixel pipeline: in questa fase le vertex pipelien sono pressochè inoperose, poichè aspettano un input dalle prime, per sapere su quali valori andare ad operare; questo traffico è ulteriormente complicato dal fatto che pixel pipeline e vertex pipeline accedono ai dati utilizzando buffer diversi. Con un modello unificato non capiterà mai di avere unità di calcolo inoperose; qualsiasi dati in ingresso sarà "letto" e indirizzato verso la prima unità di calcolo disponibile che, una volta terminata l'elaborazione, lo invierà ad un buffer comune a cui hanno accesso tutte le altre unità che possono "pescare" quel dato e utilizzarlo per successive elaborazioni (questo in maniera molto semplificata, perchè architetture di questo tipo pongono altri quesiti da risolvere, legati principalmente alle modalità di connessione tra i "nodi" e alla condivisione dei buffer; questo ovviamente quando la struttura inizia a diventare piuttosto grande e i nodi numerosi). 2) si semplifica l'architettura del chip: adesso ci sono molti elementi che sono replicati; ad esempio, un circuito che produce, come output una determinata operazione matematica, è implementato sia nelle unità PS che in quelle VS; però il risultato prodotto è di tipo comune alle due; quindi ne basterebbe uno solo per siddifìsfare le esigenze di entrambe. Questo permette di ridurre la ridondanza di elementi all'interno di un chip, a tutto vantaggio dello spazio per poter allocare altre unità di calcolo (aumentare il livello di paralleismo, quindi) e/o altri buffer (aumentare il numero di dati che possono essere caricati on chip ed elaborati senza dover accedere alla ram video o, peggio, a quella di sistema). La semplificazione dell'architettura permette, inoltre, di salire in frequenza. |
|
|
|
|
|
#99 |
|
Senior Member
Iscritto dal: Oct 2001
Città: Torino
Messaggi: 3514
|
ragazzi come mai nel cpu 2 test lo schermo rimane nero?
|
|
|
|
|
#100 | |
|
Senior Member
Iscritto dal: Jan 2002
Città: Roma
Messaggi: 1028
|
Quote:
no cmq apparte gli scherzi, se vai qui http://www.hwupgrade.it/articoli/1073/2.html nella tabella vedrai che le 6800 alla voce "Versione Vertex Shader" e "Versione Pixel Shader" hanno scritto un bel 3.0
__________________
Un giorno le macchine riusciranno a risolvere tutti i problemi, ma mai nessuna di esse potrà porne uno. (Albert Einstein) |
|
|
|
|
| Strumenti | |
|
|
Tutti gli orari sono GMT +1. Ora sono le: 08:05.










spero di averti fatto capire cosa intendo.








