PDA

View Full Version : DirectX 10: uno sguardo al futuro delle GPU


Redazione di Hardware Upg
15-06-2006, 16:07
Link all'Articolo: http://www.hwupgrade.it/articoli/skvideo/1512/index.html

Il debutto del sistema operativo Windows Vista è lontano ancora molti mesi, mentre le architetture hardware DirectX 10 sono ancora lontane dal venir presentate. Ciò nonostante, l'attenzione verso la prossima generazione di API Microsoft è molto alta: vediamo quali innovazioni queste porteranno rispetto alle attuali DirectX 9

Click sul link per visualizzare l'articolo.

PFed
15-06-2006, 16:42
Non si capisce la sezione relativa all'overhead...

Nella fase di generazione di una scena 3D l'applicazione ... sposta l'oggetto che deve essere generato e visualizzato a schermo da se stessa alle API e da queste al driver video; in queste due fasi si genera overhead, cioè del tempo di calcolo speso nell'elaborazione, che tipicamente impatta il processore; per questo motivo tutti i giochi risultano essere cpu limited. Al crescere del numero di oggetti all'interno di una scena 3D viene incrementata la quantità di overhead, quindi si aumenta il tempo di elaborazione e di conseguenza diminuisce il numero di frames generati al secondo.

E fino qui ci siamo!

Se la generazione di un oggetto ... richiede un tempo di 10 millisecondi, e questo è l'unico oggetto all'interno della scena 3D, si ricava un frame rate medio pari a 100 frames al secondo;
....
Introduciamo nella stessa scena un secondo oggetto di identiche specifiche: otterremo un tempo di generazione degli oggetti identico tra di loro, e doppio nel complesso in quanto la stessa operazione deve essere eseguita due volte. Ogni frame quindi richiederà 20 millisecondi per essere generato, con un frame rate pari a 50 al secondo.
E fino qui anche ci siamo (2 + 2 = 4!!)

E' evidente come all'aumentare del numero di oggetti presenti nella scena, di complessità predefinita, crescerà il tempo necessario al sistema per generare l'intera scena e di conseguenza il numero di frames al secondo che potranno venir generati.
Lapalissiano anche qui!!

La vera novità che verrà introdotta con le API DirectX 10 è data dalla sensibile riduzione dell'overhead
Ottimo!!!

il tempo di generazione della scena diminuisce complessivamente, e questo implica che a parità di numero di oggetti visualizzati debba aumentare il numero di frames al secondo che possono essere generati.
Lapalissiano ma vero!

Il superiore tempo a disposizione può tuttavia essere adottato per integrare nel sistema un numero maggiore di oggetti: averne a disposizione un numero più elevato permette di incrementare il realismo delle scene. Per spiegare questo con un banale esempio, un bosco composto da 10 alberi è sicuramente meno realistico, come tale, di uno nel quale sono 100 gli alberi presenti.
Anche qui matematicamente banale!!

Secondo ATI, la riduzione dell'overhead dovrebbe permettere di ottenere incrementi del numero di oggetti visualizzati in una scena 3D variabili tra 2 e 5 volte, a seconda del tipo di scena e di oggetti, mantenendo invariato il numero di frames al secondo generati.
Ottimissimo!!

Un miglioramento dell'overhead passa quindi attraverso le nuove API DirectX 10, ma parallelamente anche con un ampio lavoro sui driver; per questo motivo i produttori di architetture video DirectX 10 sono all'opera nello studio e nell'ottimizzazione dei driver video, così da ridurre il più possibile questo dannoso overhead.

Esatto. E' proprio questo il punto mancante, e il più importante, dell'articolo.... Come fanno le DirectX 10 a raggiungere questo obiettivo (riduzione dell'overhead) rispetto alle 9 ?
E perchè non si poteva fare già ora ??

kenjcj2000
15-06-2006, 16:44
io aspetto R600 mi incuriosisce molto la storia degli shader unificati :D

El Paris
15-06-2006, 16:47
a sentire loro gli shader unificati permetteranno di aumentare in maniera eclatante l'efficenza delle gpu..interessantissima conferenza :)

ottimo articolo Paolo :)

ciao!!!

Fabio

Sig. Stroboscopico
15-06-2006, 16:52
Non so quanto c'entri... ma cosa cambia avere un OS e un processore a 64bit o a 32 con le directx 10?

Ciao

NoLimit
15-06-2006, 16:59
Penso che si abbiano gli stessi cambiamenti che con qualunque altro software; maggiori capacità di calcolo sempre e comunque in breve.

Per la storia degli shader unificati mi sembra di capire che le DX impongono a livello software di lavorare in modo unificato, ma non in hardware. Sempre leggendo sembra che sarebbero in grado shader unificati in HW di incrementare tantissimo le prestazioni, però c'è il problema di riuscire a bilanciare le risorse, fattibile in un architettura che rimane tale per anni come le console, più difficile per i pc.

Così ho capito

stecdc
15-06-2006, 17:00
belle queste novità...

complimenti paolo

Athlon 64 3000+
15-06-2006, 17:05
Ottima cosa che le directx 10 porteranno miglioramenti rispetto alle dx 9 ma io sono sicuro che i primi veri motori grafici dx 10 non usciranno prima del 2008 inoltrato a addirittura nel 2009 perchè basta vedere quelle che è successo con R300 che è uscito a settembre 2002 e il primo vero gioco SM 2.0 è stato HL2 che è uscito oltre 2 anni dopo e girava benissimo con tale chip perchè è un'ottimo lavoro di programmazione ma i primi giochi full SM 2.0 sono usciti solo nel 2005 e la 9700 non era più in grado di far girare tutto a palla.
La stessa cosa succederà con R600 e G80 e i primi veri giochi dx 10.

CS25
15-06-2006, 17:07
...ma quali novita' scusa? o_o

Per dritto e per rovescio sono state dette e ridette da 6 mesi :)

DakmorNoland
15-06-2006, 17:33
Ottima cosa che le directx 10 porteranno miglioramenti rispetto alle dx 9 ma io sono sicuro che i primi veri motori grafici dx 10 non usciranno prima del 2008 inoltrato a addirittura nel 2009 perchè basta vedere quelle che è successo con R300 che è uscito a settembre 2002 e il primo vero gioco SM 2.0 è stato HL2 che è uscito oltre 2 anni dopo e girava benissimo con tale chip perchè è un'ottimo lavoro di programmazione ma i primi giochi full SM 2.0 sono usciti solo nel 2005 e la 9700 non era più in grado di far girare tutto a palla.
La stessa cosa succederà con R600 e G80 e i primi veri giochi dx 10.

Verissimo e io che ho preso la 9800PRO nel 2003 lo so bene! :) E' per questo che sconsiglio di fiondarsi su R600 e G80 almeno per un annetto dopo l'uscita di Vista per evitare brutte sorprese e valutare bene la situazione, approfittando intanto dei prezzi stracciati delle ultime schede directx 9.0 con PS 3.0... ;)

Lck84
15-06-2006, 17:43
Esatto. E' proprio questo il punto mancante, e il più importante, dell'articolo.... Come fanno le DirectX 10 a raggiungere questo obiettivo (riduzione dell'overhead) rispetto alle 9 ?
E perchè non si poteva fare già ora ??
In pratica le DirectX10 non si porteranno più dietro tutto il codice "legacy", al contrario delle DX9, per essere retrocompatibili con tutte le versioni precedenti delle librerie. Motivo per cui si avranno due DirectX su Vista (o almeno così ho capito): le DirectX 10 che avranno una velocità superiore perché comportano appunto meno overhead ad ogni chiamata da parte dell'applicazione che le sfrutta e le DirectX 9Ex che è una rivisitazione delle DirectX 9 per Vista e che supportano, come sempre, tutte le funzionalità da DX1 a DX9. :)

JohnPetrucci
15-06-2006, 17:45
Verissimo e io che ho preso la 9800PRO nel 2003 lo so bene! :) E' per questo che sconsiglio di fiondarsi su R600 e G80 almeno per un annetto dopo l'uscita di Vista per evitare brutte sorprese e valutare bene la situazione, approfittando intanto dei prezzi stracciati delle ultime schede directx 9.0 con PS 3.0... ;)
La penso così anch'io, è meglio attendere prima di acquistare le prime schede dx10.

fek
15-06-2006, 18:00
Esatto. E' proprio questo il punto mancante, e il più importante, dell'articolo.... Come fanno le DirectX 10 a raggiungere questo obiettivo (riduzione dell'overhead) rispetto alle 9 ?
E perchè non si poteva fare già ora ??

Non si poteva fare prima perche' l'eliminazione di quel overhead richiede una reingegnerazione dell'architettura dei driver video. Al momento mandare una primitiva alla GPU significa:

- Copiare un certo blocco di dati dalla CPU ad una cosa che si chiamana CommandBuffer in user space
- Prendere questo CommandBuffer e copiarlo in una porzione di memoria pronta per essere spedita al driver video
- Fare una transizione da user space a kernel space e invocare il driver
- Il driver copia la porzione di memoria di cui sopra in una sua porzione di memoria in cui traduce i comandi per la GPU
- Il driver fa un sacco di altre cose... ci siamo quasi...
- Il driver manda finalmente i comandi alla GPU

Sostanzialmente c'e' un blocco di memoria che viene palleggiato e copiato cinque o sei volte prima di arrivare alla GPU.

Con le DX10 si e' tagliato buona parte del driver video ed ora la traduzione in comandi per la GPU viene fatta dalla parte di driver in user space, risparmiando un paio di copie. Inoltre la definizione dei comandi delle DX10 e' meno ambigua e questo permette ulteriori ottimizzazioni.

Perche' non e' possibile fare la stessa cosa in WinXP? Perche' si dovrebbe cambiare l'architettura dei driver video, sostanzialmente riscrivere un porzione del kernel.

dema86
15-06-2006, 18:26
Io ho ancora la 9700PRO da un mese dopo il lancio e debbo dire che e' un acquisto che ripeterei SEMPRE!!
Acquisti di questo tipo ti permettono (alla ris di 1280x1024 utilizzata da me) nel 1° anno di sparare al max dettagli ris e filtri
nel 2° anno di mantenere al max i dettagli e un po' di filtro
nel 3° anno di mantenere la ris e un buon dettaglio
ora sono al 4° anno di vita e comunque a medio dettaglio 1024 Oblivion funzia discretamente... e per un muletto la raddy pomperebbe ancora... + Di così ad un prodotto PC non si può chiedere non trovate? Se avessi comperato una scheda da 100€ l'anno non avrei mai avuto quelle prestazioni e adesso con una 6600GT da 100€ non ci sarei molto sopra...

dragonheart81
15-06-2006, 18:27
Quando ci sara il lancio di vista molti giochi in dx10 e testati sti shader unificati e calcolati i benefici apportati FORSE cambierò la mia ATI x1900xtx che al momento il suo lavoro lo fa del tutto e lo farà anche con dx10 :D ora é troppo presto!

Tuvok-LuR-
15-06-2006, 18:40
Mancano ancora almeno 6 mesi al lancio di Windows Vista; per quel periodo auspichiamo che i primi titoli compatibili con le nuove API siano già disponibili in commercio, così da finalmente beneficiare della migliore gestione dell'overlay proprio di queste API e avere a disposizione un superiore realismo delle scene. Per le prime architetture hardware Shader Model 4.0 sembra invece che ci sarà da attendere meno tempo

Forse volevate dire overhead? ;)

DenFox
15-06-2006, 18:45
SECONDO ME è inutile comprare la prima generazione di schede video DirectX10. Meglio aspettare la seconda e sopratutto se nVidia continua con la storia degli shader non unificati... ATi RULEZ!!!

Paolo Corsini
15-06-2006, 18:48
Forse volevate dire overhead? ;)
Decisamente si; grazie della segnalazione, sistemo subito

DakmorNoland
15-06-2006, 18:49
SECONDO ME è inutile comprare la prima generazione di schede video DirectX10. Meglio aspettare la seconda e sopratutto se nVidia continua con la storia degli shader non unificati... ATi RULEZ!!!

Giusto! Quoto!

stop81
15-06-2006, 18:52
Avete ragione ragazzi ma io l'anno prox devo cambiare PC e mi sa che prenderò cmq una scheda DX 10, prima guarderò i test ma mi dispiace dover spendere magari 250 euro per una scheda che dovrò buttare dopo un anno (tipo una X1900XT)... si vedrà

DakmorNoland
15-06-2006, 18:54
Avete ragione ragazzi ma io l'anno prox devo cambiare PC e mi sa che prenderò cmq una scheda DX 10, prima guarderò i test ma mi dispiace dover spendere magari 250 euro per una scheda che dovrò buttare dopo un anno (tipo una X1900XT)... si vedrà

Beh allora spendine magari 150 per una 1800XT 256MB e OC al limite, così va praticamente come una x1900xt e poi dopo 1anno e mezzo ti prendi una buona scheda directx 10.

capitan_crasy
15-06-2006, 19:03
Ottima cosa che le directx 10 porteranno miglioramenti rispetto alle dx 9 ma io sono sicuro che i primi veri motori grafici dx 10 non usciranno prima del 2008 inoltrato a addirittura nel 2009 perchè basta vedere quelle che è successo con R300 che è uscito a settembre 2002 e il primo vero gioco SM 2.0 è stato HL2 che è uscito oltre 2 anni dopo e girava benissimo con tale chip perchè è un'ottimo lavoro di programmazione ma i primi giochi full SM 2.0 sono usciti solo nel 2005 e la 9700 non era più in grado di far girare tutto a palla.
La stessa cosa succederà con R600 e G80 e i primi veri giochi dx 10.

Il tuo esempio fra HL2 e R300 non è proprio azzeccato.
E' logico che le GPU 9500/9700 non vanno al massimo con HL2, in quando ci sono 3 anni di differenza!!!

dragonheart81
15-06-2006, 19:07
SECONDO ME è inutile comprare la prima generazione di schede video DirectX10. Meglio aspettare la seconda e sopratutto se nVidia continua con la storia degli shader non unificati... ATi RULEZ!!!
Quoto...prima si vede come va poi si lascia passare un pò di tempo per future migliorie ecc e poi si compera!

capitan_crasy
15-06-2006, 19:08
SECONDO ME è inutile comprare la prima generazione di schede video DirectX10. Meglio aspettare la seconda e sopratutto se nVidia continua con la storia degli shader non unificati... ATi RULEZ!!!
E se Nvida avesse ragione??? :asd:

daboss87
15-06-2006, 19:13
E se Nvida avesse ragione??? :asd:

NO :mad:

daboss87
15-06-2006, 19:15
ATI 4EVEEEEEEEEEEEEEEEEEEEEEEEEEEEER!!! :read: :sofico:

DakmorNoland
15-06-2006, 19:17
E se Nvida avesse ragione??? :asd:

Beh potrebbe succedere, ma sarebbe per pura fortuna! :D Visti i precedenti! :Prrr:

stop81
15-06-2006, 19:17
Beh allora spendine magari 150 per una 1800XT 256MB e OC al limite, così va praticamente come una x1900xt e poi dopo 1anno e mezzo ti prendi una buona scheda directx 10.

Forse hai ragione perché costeranno sicuramente un botto e nn si potranno sfruttare subito e dopo un anno ci saran giochi belli e schede DX10 di seconda generazione, attendo con impazienza gli sviluppi :D

stop81
15-06-2006, 19:19
A proposito nessuno di voi ha trovato qualche bench (anche non ufficiale) di R600?

capitan_crasy
15-06-2006, 19:26
A proposito nessuno di voi ha trovato qualche bench (anche non ufficiale) di R600?
ehmm...
è un pò prestino...

capitan_crasy
15-06-2006, 19:29
Beh potrebbe succedere, ma sarebbe per pura fortuna! :D Visti i precedenti! :Prrr:
perchè quante GPU ha prodotto Nvidia è hanno avuto prestazioni superiori per ehmm... fortuna???? :mbe:

DakmorNoland
15-06-2006, 19:31
perchè quante GPU ha prodotto Nvidia è hanno avuto prestazioni superiori per ehmm... fortuna???? :mbe:

Da quando Ati è entrata sul mercato porelli, temo nessuna :D Che ci vuoi fare saranno sfortunati, magari sta volta per puro caso gli riesce il colpaccio! :p

jpjcssource
15-06-2006, 20:16
Mah io dalle vari informazioni che ho letto trovo una certa differenza fra il salto Dx 8.1 - 9.0 e Dx 9.0c - 10.0, secondo me il discorso " non bisogna mai prendere una scheda di prima generazione di una data api" (che fino ad ora si è verificata vera) in questo caso è tutt'altro che scontata.

Innanzi tutto vedo che le dx 10 non sono solo un'evoluzione delle precedenti, ma sono anche una loro ottimizzazzione ovvero aggiungono nuove features, ma riprendono quelle già esistenti rendendole meno esigenti in termini di calcolo per farle girare.

Un esempio lampante è il nuovo FPS Crysis che con il Cryengine 2.0 dimostrerà a detta degli sviluppatori che facendolo girare con il path dx 9.0c sarà più pesante che con il path dx10 (oltre ovviamente a precisare che vi saranno effetti riproducibili solo con le dx10).

Ora se pensiamo al momento dell'uscita delle dx 9, vi fu alcun gioco che uscì immediatamente dopo che sfruttava anche minimamente le nuove api? No ci volle del tempo, qui invece si comincia a sfruttarle subito anche se minimamente e le si usa per far girare più fluidi motori grafici che potrebbero andare tranquillamente sotto dx9.

Per fare una altro esempio a riguardo in ambito dx 8.1 la mia geforce 4600 Ti era velocissima e teneva tranquillamente testa ad una 9700, passati alle nuove api invece la 9700 aveva ovviamente il sopravvento.

Le nuove schede invece promettono (e ci metto la mano sul fuoco che sarà così) oltre di supportare le dx 10 di far andare i motori dx 9 con un'altissima fluidità.

Athlon 64 3000+
15-06-2006, 20:20
Il tuo esempio fra HL2 e R300 non è proprio azzeccato.
E' logico che le GPU 9500/9700 non vanno al massimo con HL2, in quando ci sono 3 anni di differenza!!!

Guarda che R300 è stato presentato a Luglio 2002 e arrivato sul mercato a settembre 2002 e HL2 è uscito a novembre 2004 ed è stato il primo vero gioco che facevo un buon uso dello SM 2.0 ed rimarrà un casino unico del suo genere come programmazione visto che con la 9700Pro 1024 tutto a palla e i filtri il gioco girava benissimo.
Forse ti confondi con Fear che è uscito 3 anni dopo è la 9700Pro viene veramente messo in ginocchio.

lucusta
15-06-2006, 20:22
E se Nvida avesse ragione??? :asd:

per me ha visto piu' a lungo ATI, rispetto ad nVidia, e per diversi motivi:

1) se l'efficacia dei driver sara' all'altezza del tipo di tecnologia, il bilanciamento si ottiene solo con il doppio delle unita' di calcolo:
se R600 ha 64 shared unificati, nVidia ne dovra' avere piu' di 32 di vertex shadere piu' di 32 di pixel shader, arrivando al limite di 64+64.. esagerato.

2) gli shared unificati vengono gia' usati nella xbox360, quindi ATI si ritrova "compagna" di viaggio di una console dove, per far girare i giochi, gia' bisogna utilizzare questa tecnologia.
questo implica che la strada e' gia' aperta, ossia che se si vuole fare un gioco su xbox360, sara' molto piu' facile poi trasportarlo su ATI R600, e sara' comunque facile trasportarlo su soluzioni a shared distinti, in quanto trasformare da unificati a distinti credo richieda un lavoro MOLTO meno oneroso che eseguire il contrario, anche perche' sembra che per utilizzare dx10, si debba comunque partire da shared unificati, ed arrivare a shared unificati, e' nVidia che elabora in shared distinti, con possibili problemi nel gestire questa situazione.
si ha percio' un parco macchine piu' ampio, a costo di un maggior impegno iniziale nella progettazione del gioco, ma con molto meno lavoro nel tradurlo per le varie piattaforme (siano esse PC-ATI, che PC-nVidia che altre console).

3) la programmabilita' delle GPU sara' molto piu' versatile:
in una GPU con shared unificati posso far girare sia vertex, che texture che fisica, in una a shared distinti no, il che dara' ulteriore vantaggio ad ATI;
in una configurazione dual GPU, posso omettere la terza scheda video per la fisica utilizzando parte degli shared delle due schede, bilanciando il carico di lavoro, in una configurazione a shared distinti, credo ci debba essere una distinzione tra' utilizzazione della GPU se per la fisica o per la grafica, e se fosse possibile, penalizzerebbe comunque le prestazioni e la complessita' della GPU.

4) la programmabilita' degli shared indica che le unita' di calcolo possono svolgere tranquillamente piu' compiti, ossia sono molto piu' versatili di una soluzione a shared distinti, e visto che si sta' aprendo l'uso delle GPU in ambiti di calcolo diversi dalla grafica, si otterranno molti piu' vantaggi in questi campi;
oltre al calcolo della fisica nei giochi, il primo e' la decodifica di flussi video, e non solo in ambito multimediale.
anche altre applicazioni sfruttano uno streaming video, e una di questa e' il desktop remoto; a quanto lessi, Vista prometteva un notevole incremento prestazionale di questo tipo di applicazioni, che ad oggi sfruttano esclusivamente un driver software, dove le schermate si dividono in una griglia e solo le differenze tra' un semiquadro e quello successivo vengono spedite (ad esempio, su desktop nero, se si apre una finestra, verranno interesati solo gli scacchi dove si sara' aperta la finestra, e solo le informazioni diverse da prima); quando pero' si parla di decine di cambi totali al secondo dello schermo, come nella riproduzione in RD di un filmato multimediale.... le prestazioni calono vertiginosamente, perche' il carico e' esclusivamente software, e la cpu viene MASSACRATA dal lavoro.
spostare questo sulla GPU ,che oggi in RD non viene sfruttata minimamente, per far codificare questi flussi, ed inviarli in streaming mpeg4, porterebbe un giovamento prestazionale inconmensurabile, tale da poter affermare che si portebbe usare un RD per giocare, oltre che, essendo gli shared etichettabili, potranno essere sfruttati indistintamente su diverse console all'unisono (forse un futuro modo di concepire i server multiuso casalinghi: grande potenza centrale da poter dividere per molte console).

forse le tecniche porteranno a prestazioni equiparabili, ma sicuramente nVidia fatichera' molto piu' di ATI per rendere compartibile gli shared distinti in piattaforme che richiederanno sempre piu' una totale versatilita' delle unita' di calcolo, e non solo per i giochi.
almeno io la penso cosi'.

samuello 85
15-06-2006, 20:26
piccola domanda, ma come faccio io che mi appresto a cambiare computer a settembre?

lucusta
15-06-2006, 20:27
aspetti o prendi una soluzione facilmente smaltibile.

TROJ@N
15-06-2006, 20:27
Ma dove stanno le novità di sto articolo...ero giâ bagnato...

samuello 85
15-06-2006, 20:29
ho gia aspettato abbastanza per l'uscita di conroe, in poche parole fin da subito mi troverei con una scheda video vecchia

^TiGeRShArK^
15-06-2006, 20:34
A proposito nessuno di voi ha trovato qualche bench (anche non ufficiale) di R600?
magari potresti kiedere a fek...:D
ma dubito ke li abbia visto ke è stato fatto ora il primo tape-out e quindi immagino ke prima di luglio, ammesso ke tutto vada bene, non si saprà niente....
e cmq anke se fosse NON ti risponderebbe perchè sarebbe sotto NDA :asd:
e cmq dov'è ke mi spezza le braccine xkè non ho + tempo x diamonds causa trasloco a reggio e concorso del 27 :cry:
anzi... ora vado e me le spezzo da solo va... ks gli risparmio la fatica... :sob:

Athlon 64 3000+
15-06-2006, 20:36
Sembra quasi di capire che con l'uscita delle dx 10 e quindi di R600 e G80 le attuale top di gamme X1900 e 7900 potrebbero invecchiare molto rapidamente.

samuello 85
15-06-2006, 20:44
Sembra quasi di capire che con l'uscita delle dx 10 e quindi di R600 e G80 le attuale top di gamme X1900 e 7900 potrebbero invecchiare molto rapidamente.
infatti io che ho aspettato per mesi l'uscita di conroe per cambiare computer mi ritrovero con una scheda gia vecchia.
:(
Quasi quasi compro il computer senza
scheda video e la compro dopo

lucusta
15-06-2006, 20:46
Sembra quasi di capire che con l'uscita delle dx 10 e quindi di R600 e G80 le attuale top di gamme X1900 e 7900 potrebbero invecchiare molto rapidamente.

no, saranno comunque efficenti..
sara' Vista e l'uso intensivo che fara' di dx9-dx10, e naturalmente l'uso che si vole fare delle sue nuove tecnologie, che fara' invecchiare queste soluzioni.
personalmente, se le vista\dx10 mi avvantaggiano su RD, codifica/decodifica multimediale (non solo video), utilizzo delle potenzialita' delle GPU a shared unificati oltre l'ambito game, usero Vista e prendero' una R600, diversamente rimarro' a winXP con una 6600 fino a che potro'; visto che non sono un videogiocatore, a poca importanza, per me...

Athlon 64 3000+
15-06-2006, 20:47
sarebbe un bel pacco vedere eventualmente una scheda video come la X1900XT invecchiare cosi rapidamente.

Athlon 64 3000+
15-06-2006, 20:54
quello che ho detto sull'invecchiamente precoce della X1900XT è solo una mia supposizione perchè personalmente ci credo poco che possa invecchiare cosi rapidamente.

ulk
15-06-2006, 20:56
sarebbe un bel pacco vedere eventualmente una scheda video come la X1900XT invecchiare cosi rapidamente.


Tutto da dimostrare, Vista deve ancora venire, le Dx 1o idem, i giochi basati su di esse ancora idem....

Piuttosto in questo contesto le schede Ageia che fine faranno?

Racer89
15-06-2006, 20:59
quello che ho detto sull'invecchiamente precoce della X1900XT è solo una mia supposizione perchè personalmente ci credo poco che possa invecchiare cosi rapidamente.
meglio così appena invecchia la compro :D

perchè quante GPU ha prodotto Nvidia è hanno avuto prestazioni superiori per ehmm... fortuna???? :mbe:
7800 :O

k4rl
15-06-2006, 21:09
secondo me la storia che le prime architetture non sono mai all'altezza dei giochi che supportnao le nuove APi è un po' na strunzata...

ciioè io più che dire che con FEAR una 9700 non permette di giocare a pieno dire che x QUASI 3 ANNI la stessa SV bastava x giocare più che dignitosamente con qualsiasi gioco

ovvio che poi le nuove SV vanno meglio...

le differenze abbisali che in passato c'erano tra dx 7-->8 8-->9 secondo me non sono così evidenti ed infatti già con le directx 9 ATi ha dimostrato di saper far uscire una SV in grado di sfruttare appieno le nuove caratteristiche da subito

quindi in sostanza secondo me se si deve prendereil pg a novembre-dicembre ocnviene prendere SV new generation

mal che vada andra molto meglio con i giochi directx 9 e se la cavera per un po' con directx 10 :p

kenjcj2000
15-06-2006, 21:15
meglio così appena invecchia la compro :D


7800 :O


sulla (che io avevo) 7800gtx512 hai ragione quando è uscita era migliore della 1800xt.512 stà il fatto che a distanza di pochi mesi vedendo i bench dei giochi di ultima uscita (oblivion) sembra che l^architettura di Ati faccia più il suo dovere .... basta vedere che nonostate la 1800 sia di una generazione più vecchia tanti come nuovo acquisto la preferiscano alla 7900gt appena uscita....

secondo mè Nvidia si è un pò seduta sugli allori poi magari mi posso sbagliare

jpjcssource
15-06-2006, 21:31
Comunque grazie all'Unreal Engine 3.0 che sarà il motore grafico più sfruttato almeno nei prossimi 2 anni le dx 9 hanno vita ancora molto lunga.

Certo una scheda video dx 10 lo farà girare allo stato dell'arte.

Plax
15-06-2006, 22:04
Delle schede integrate Intel si sa nulla? Voglio dire, hanno annunciato se la prossima versione della GMA sarà compatibile con DX10?

kenjcj2000
15-06-2006, 22:05
posto pure questo link:http://www.tomshw.it/business.php?guide=20060615

Athlon 64 3000+
15-06-2006, 22:37
Comunque grazie all'Unreal Engine 3.0 che sarà il motore grafico più sfruttato almeno nei prossimi 2 anni le dx 9 hanno vita ancora molto lunga.

Certo una scheda video dx 10 lo farà girare allo stato dell'arte.

Naturalmente si spera che anche con una 7900GTX e una X1900XT/XTX siano in grado di far girare bene tutto a palla l'U.E. 3 che avrà la sua prima incarnazione entro fine 2006 con UT2007 che dovrebbe uscire prima di G80 e R600.

Ginopilot
15-06-2006, 23:47
Finalmente sta uscendo windows playstation. Dove dovranno sbattere la testa i professionisti della grafica ora che manca il supporto nativo a opengl?
Un os pensato solo per giocare. Mah.

nudo_conlemani_inTasca
16-06-2006, 01:02
[edit]

nudo_conlemani_inTasca
16-06-2006, 01:03
Bello il Logo (degli Articoli) visibili dalla Home della testata di Hw Up.it,
le foto sono sempre di forte effetto e sicuro impatto. ;)

Complimenti alla Reda... per le scelte. :O

Lo faccio presente, doveroso.. :p

mentalrey
16-06-2006, 02:56
Quoto Ginopilot.
direct 3d ok... ma a quale chiusura siamo arrivati per zittire un po' gli Os
concorrenti -_-' .

coschizza
16-06-2006, 07:18
Finalmente sta uscendo windows playstation. Dove dovranno sbattere la testa i professionisti della grafica ora che manca il supporto nativo a opengl?
Un os pensato solo per giocare. Mah.

ma guarda che le opengl sono ancora supportate, se i produttori delle schede video faranno i driver per il SO non esiste nessun limite che impedisca vista di supportare qualsiasi versione delle opengl.

quindi non è che in vista le opengl non sono supportate, è l'implementazione della ms che è stata volotamente limitata alla versione 1.4, ma come avviene oggi in xp se le gpu hanno i driver il problema è bello che risolto.

OpenGL può essere usato in 3 modi:

1 tramite MSOGL, un’implementazione Microsoft ferma ad OpenGL 1.4, che usa Direct3D

2 tramite i driver di Windows XP. Questi ultimi creano dei problemi con il nuovo gestore di finestre DWM (Desktop Windows Manager). Questo è uno dei motivi per cui in Vista viene di disabilitato il gestore quando un’applicazione che fa uso di OpenGL si serve di un ICD.

3 OpenGL potrà essere usato senza rinunciare al DWM grazie ad API fornite da Microsoft e a driver di terze parti.


è ovvio che l'unica soluzione realmente funzionale e con ottime performance sarà la 3 ma, IMHO non si puo pretendere che la MS faccia i driver per le gpu degli altri, è gia tanto che abbia lasciato aperta questa possibilità.

un saluto

Gargor
16-06-2006, 08:43
Mi chiedo ora se per tutto il lungo periodo delle 10X (almeno 2 anni) varrà la pena spendere soldi per aggiornare il pc (una spesa almeno di 600 euro come minimo) o comprare un xbox360 (per chi interessa giocare ad alta risoluzione)...ovviamente questo discorso è ristretto a chi usa il pc per una buona fetta al gioco!
Personalmete x giocare mi ha rotto le palle spendere soldi esagerati su pc, dopo aver visto un filmato del Wii del gioco RedSteel non ho piu dubbi, quella console sarà mia! Altro che giocare agli sparututto col muose o peggio col pad, quel controller per me che son fanatico del genere mi rivoluzionerà il divertimento!

PS a meno che esca il seguito di WoW esclusivamente su PC allora li qualche aggiornamento lo devo fare per forza!

Apple80
16-06-2006, 09:00
mmh... cavolo. Pensavo che una gpu a shader unificati sarebbe stata cmq compatibile con tutti i giochi. Non pensavo che dietro dovevano anche esserci un tipo di programmazione del gioco per sfruttarlo appieno.

cagnaluia
16-06-2006, 09:07
E perchè non si poteva fare già ora ??


.... :D per inocularci Vista??

walter89
16-06-2006, 09:32
E' evidente come all'aumentare del numero di oggetti presenti nella scena, di complessità predefinita, crescerà il tempo necessario al sistema per generare l'intera scena e di conseguenza il numero di frames al secondo che potranno venir generati.


forse manca un verbo

all'aumentare del numero di oggetti..................... crescerà il tempo ............ e di conseguenza DIMINUIRA' il numero di frames al secondo che potranno essere generati.

coschizza
16-06-2006, 09:49
forse manca un verbo

all'aumentare del numero di oggetti..................... crescerà il tempo ............ e di conseguenza DIMINUIRA' il numero di frames al secondo che potranno essere generati.

no
la frase era giusta come prima, il numero di frame aumentara questo perche se il sistema ha piu tempo per generare i frames alla fine a parità ti tempo m ne farà di piu rispetto a prima.

nell'SDK delle directx10 la microsoft cita miglioramenti in alcune parti che sfiorano il 600% rispetto alle stesse funzioni delle directx9.

la frase di Paolo Corsini forse non è molto chiara ma il concetto espresso è giusto.

Paolo Corsini
16-06-2006, 10:17
forse manca un verbo

all'aumentare del numero di oggetti..................... crescerà il tempo ............ e di conseguenza DIMINUIRA' il numero di frames al secondo che potranno essere generati.
Esatto, svista mia. Anche perché leggendo il periodo seguente si aveva conferma che quel "diminuire" ci doveva essere in quel paragrafo.
Sistemato adesso, grazie della segnalazione.

Paolo Corsini
16-06-2006, 10:20
no
la frase era giusta come prima, il numero di frame aumentara questo perche se il sistema ha piu tempo per generare i frames alla fine a parità ti tempo m ne farà di piu rispetto a prima.

nell'SDK delle directx10 la microsoft cita miglioramenti in alcune parti che sfiorano il 600% rispetto alle stesse funzioni delle directx9.

la frase di Paolo Corsini forse non è molto chiara ma il concetto espresso è giusto.
Con quel periodo intendevo dire che se aumenta il tempo necessario per generare ogni oggetto presente in ogni frame, la generazione del singolo frame richiederà più tempo.

Frames al secondo = 1 secondo / tempo necessario per generare un frame

Prendendo un'unità di tempo di riferimento quale il secondo, sarà inferiore il numero di frames generati al secondo sino al limite di rendere la riproduzione potenzialmente non fluida.

capitan_crasy
16-06-2006, 10:29
Guarda che R300 è stato presentato a Luglio 2002 e arrivato sul mercato a settembre 2002 e HL2 è uscito a novembre 2004 ed è stato il primo vero gioco che facevo un buon uso dello SM 2.0 ed rimarrà un casino unico del suo genere come programmazione visto che con la 9700Pro 1024 tutto a palla e i filtri il gioco girava benissimo.
Forse ti confondi con Fear che è uscito 3 anni dopo è la 9700Pro viene veramente messo in ginocchio.
errore mio di un anno...
Lasciando stare FEAR che mette in ginocchio GPU molto più moderne, con la mia 9500pro ho giocato "quasi" al massino a NeverWinter Night (comprese le varie espansioni) e con Doom3 in media qualità con risoluzione 1024X768.
Non sono proprio un videogiocatore incallito, però la prima scheda Video di ATI a supportare le DX9 mi è durata oltre 2 anni.

capitan_crasy
16-06-2006, 10:31
per me ha visto piu' a lungo ATI, rispetto ad nVidia, e per diversi motivi:
[CUT]

Finalmente una vera risposta che non sia ATI RULEZ... ;)

capitan_crasy
16-06-2006, 10:34
7800 :O

:doh:
MA per quale arcano motivo la 7800 era più fortunata di qualsiasi rilave ATI???

fek
16-06-2006, 10:45
Da quando Ati è entrata sul mercato porelli, temo nessuna :D Che ci vuoi fare saranno sfortunati, magari sta volta per puro caso gli riesce il colpaccio! :p

Temi male, NVIDIA ha avuto la leadership tecnologica per tutto il ciclo di vita dell'NV40 e poi quella prestazionale per gran parte del ciclo di vita del G70/G71, fino all'arrivo dell'R580.

questo implica che la strada e' gia' aperta, ossia che se si vuole fare un gioco su xbox360, sara' molto piu' facile poi trasportarlo su ATI R600, e sara' comunque facile trasportarlo su soluzioni a shared distinti, in quanto trasformare da unificati a distinti credo richieda un lavoro MOLTO meno oneroso che eseguire il contrario, anche perche' sembra che per utilizzare dx10, si debba comunque partire da shared unificati, ed arrivare a shared unificati, e' nVidia che elabora in shared distinti, con possibili problemi nel gestire questa situazione.

In realta' il discorso e' un po' piu' complesso perche' DX10 parla di unificazione del modello di programmazione degli shader, ma questo non si traduce direttamente nell'unificazione delle unita' di esecuzione. Significa che se scrivo un pixel shader e un vertex shader e li metto vicini, il codice e' sintatticamente molto simile. In altre parole significa che sia le unita' vertex shader sia quelle pixel shader devono accettare lo stesso set di istruzioni.

Questo e' un piano del discorso, poi c'e' l'implementazione, perche' a quel punto l'IHV puo' decidere di usare lo stesso motore per vertex e pixel shader (e geometry shader) come ATI, oppure scegliere due o tre motori differenti come NVIDIA, sfruttando il fatto che vertex e pixel shader hanno profili di esecuzione diversi.

Quale soluzione e' migliore? Secondo me, in prospettiva la soluzione ATI e' la piu' logica e sara' quella migliore, ma al momento io avrei scelto la soluzione NVIDIA perche' queste GPU avranno in pasto applicazioni non scritte con un'architettura unificata in mente.

Il punto e' che scrivere per un'architettura unificata e' leggermente piu' complesso. Piu' correttamente, e' piu' complesso fare il profiling: su un'architettura classica si ha un budget di vertex unit e un budget di pixel unit fisso e con quello si deve lavorare: il collo di bottiglia e' da una parte o dall'altra. In una situazione unificata, capire dov'e' il collo di bottiglia senza strumenti adeguati diventa decisamente piu' complesso perche' vertex e pixel si contendono le stesse unita', quindi diventa un problema di capire in ogni momento quale sia il rapporto numerico fra queste due entita' e i pesi relativi. Su', e' un po' un macello, e' difficile farsi un'idea chiara.

fek
16-06-2006, 10:47
magari potresti kiedere a fek...:D
ma dubito ke li abbia visto ke è stato fatto ora il primo tape-out e quindi immagino ke prima di luglio, ammesso ke tutto vada bene, non si saprà niente....
e cmq anke se fosse NON ti risponderebbe perchè sarebbe sotto NDA :asd:
e cmq dov'è ke mi spezza le braccine xkè non ho + tempo x diamonds causa trasloco a reggio e concorso del 27 :cry:
anzi... ora vado e me le spezzo da solo va... ks gli risparmio la fatica... :sob:

:p

No, non ce l'ho, devo chiedere a Richard. Ma visto che ultimamente ho chiesto un paio di favori, sono un po' imbarazzato...

Athlon 64 3000+
16-06-2006, 11:03
Temi male, NVIDIA ha avuto la leadership tecnologica per tutto il ciclo di vita dell'NV40 e poi quella prestazionale per gran parte del ciclo di vita del G70/G71, fino all'arrivo dell'R580.



In realta' il discorso e' un po' piu' complesso perche' DX10 parla di unificazione del modello di programmazione degli shader, ma questo non si traduce direttamente nell'unificazione delle unita' di esecuzione. Significa che se scrivo un pixel shader e un vertex shader e li metto vicini, il codice e' sintatticamente molto simile. In altre parole significa che sia le unita' vertex shader sia quelle pixel shader devono accettare lo stesso set di istruzioni.

Questo e' un piano del discorso, poi c'e' l'implementazione, perche' a quel punto l'IHV puo' decidere di usare lo stesso motore per vertex e pixel shader (e geometry shader) come ATI, oppure scegliere due o tre motori differenti come NVIDIA, sfruttando il fatto che vertex e pixel shader hanno profili di esecuzione diversi.

Quale soluzione e' migliore? Secondo me, in prospettiva la soluzione ATI e' la piu' logica e sara' quella migliore, ma al momento io avrei scelto la soluzione NVIDIA perche' queste GPU avranno in pasto applicazioni non scritte con un'architettura unificata in mente.

Il punto e' che scrivere per un'architettura unificata e' leggermente piu' complesso. Piu' correttamente, e' piu' complesso fare il profiling: su un'architettura classica si ha un budget di vertex unit e un budget di pixel unit fisso e con quello si deve lavorare: il collo di bottiglia e' da una parte o dall'altra. In una situazione unificata, capire dov'e' il collo di bottiglia senza strumenti adeguati diventa decisamente piu' complesso perche' vertex e pixel si contendono le stesse unita', quindi diventa un problema di capire in ogni momento quale sia il rapporto numerico fra queste due entita' e i pesi relativi. Su', e' un po' un macello, e' difficile farsi un'idea chiara.

Quindi dici che in un certo senso la possibile scelta da parte di Nvidia di voler ancora fare una gpu a shader separati potrebbe essere per certi versi "migliore" di R600 perchè G80 potrebbe essere meno ghignoso da programare rispetto a R600.

DakmorNoland
16-06-2006, 12:42
Allora vorrei spendere due parole visto che da quasi tre anni ho una 9800PRO 128MB, presa dopo circa un anno dall'avvento delle directx 9. Questa scheda ha fatto girare giochi senza problemi a 1024x768 anche con filtre per ben tre anni!! A Fear non ho mai giocato, cmq a Doom 3 giravo alla grande! :D L'unico che l'ha davvero messa in ginocchio è Oblivion, cmq direi che ATI fa schede + longeve di Nvidia, infatti nello stesso periodo della 9800 la scheda di punta della casa statunitense era la FX5900Ultra che poi si è dimostrata essere un fallimento totale! Infatti Oblivion non riesce neanche a farlo girare per colpa della scarsa, direi quasi scandalosa, implementazione dei Pixel Shader 2.0 che era stata fatta su questa GPU, mentre la 9800 da questo punto di vista non ha nessun problema.

Non credo cmq possibile che schede come la 1800XT (magari bella OC :D) e la 1900XT, invecchieranno precocemente, intanto perchè Vista continuano a rimandarlo quindi l'R600 prima di poterlo utilizzare con DX10 potrebbe richiedere ancora parecchio, poi si dicono tante cose per queste nuove DX10 riscritte da zero ma spesso è successo che cose descritte come fantastiche, si sono rivelate buone ma non così tanto rivoluzionarie come venivano descritte. Inoltre i giochi programmati in Directx 10 impiegheranno minimo un anno dal lancio di Vista per utilizzarle ad un livello decente.

Quindi una GPU DX9 con PS 3.0 come la 1800XT o la 1900XT potrà far girare più bene questi giochi fino almeno a fine 2008 direi, chiaramente magari rinunciando a qualche effetto in termini di qualità, tipo l'HDR in Oblivion che una 850XT non può utilizzare, pur facendolo girare cmq bene!
Ad esempio si dovrà rinunciare ad effetti con PS 4 e accontentarsi di quelli con PS 3...

Cmq come qualcuno avrà letto un personaggio importante di ATI ha assicurato che le loro attuali schede video di fascia alta andranno bene su vista, inteso anche come giochi...
Quindi penso non ci sia da preoccuparsi troppo, poi basta che chi cambia il computer a settembre o a luglio magari prenda per poco una 1800XT con 256MB in modo da non spendere troppo e da avere una scheda che se ben tirata non ha quasi nulla da invidiare alla 1900XT, aspettando il momento propizio per l'acquisto dell'R600, tanto la versione che uscirà a Natale sarà inacquistabile per il prezzo sicuramente proibitivo, come tutte le novità! ;)

manga81
16-06-2006, 15:13
Beh allora spendine magari 150 per una 1800XT 256MB e OC al limite, così va praticamente come una x1900xt e poi dopo 1anno e mezzo ti prendi una buona scheda directx 10.

:)

MiKeLezZ
16-06-2006, 15:21
Ma io mi chiedo: com'è che siamo ancora a spingere con i filtri anti aliasing, quando con l'aumentare della risoluzione l'aliasing in pratica sparisce del tutto?
Già a 1600x1200 ci troviamo con una risoluzione "pulita", e quando il 1080p diverrà standard (1920x1080) mi piacerebbe immaginare che questa piaga venga del tutto debellata.. Anzi un 1080p senza filtri che un 1024x768 con 8xAA.. sbaglio?

mackillers
16-06-2006, 15:38
ancora meglio un 1080p con filtri a palla :D
battute a parte generalmente(sopratutto su ati di questi tempi) 1024x768 con filtri fà molti più frame di 1280x1024 senza...
ora come ora utilizzo un crt 22" che tengo di norma a 1600x1200 rari casi come oblivion mi costringono a scendere a 1280x1024.. è in quei casi che un pò di anti aliasing per compenzare puo far comodo.

IMHO più migliorano i filtri meglio è (che comunque ad alte risoluzioni l' antialiasing spesso non scompare comunque)
io a toca 3 1600x1200 devo abilitare l' AA 4x per non vedere leggermente seghettati :eek: :mad:

MiKeLezZ
16-06-2006, 16:03
ah ok.. grazie.. siamo quindi ben lontani ancora dal render inutile l'uso dei filtri
allora mi auguro che diventano quando più "leggeri" possibile, un trend che continua già da qualche anno fortuntamente

Apple80
16-06-2006, 16:26
strumenti adeguati diventa decisamente piu' complesso perche' vertex e pixel si contendono le stesse unita', quindi diventa un problema di capire in ogni momento quale sia il rapporto numerico fra queste due entita' e i pesi relativi. Su', e' un po' un macello, e' difficile farsi un'idea chiara.

Quindi fare una GPU a shader unificati ora come ora è inutile senza applicazioni che lo supportino. In ogni caso prima che tutti i programmatori passeranno a creare giochi solo con shader unificati ne apssera ancora un bel po' di tempo, e quindi non c'è nessun problema se il G80 uscirà a shader separati.

Ma il nuovo motore grafico della crygtek , Unreal engine 3 sono a shader unificati o no ? o possso cmq scegliere se creare giochi a shader unificati con questi due motori grafici? :fagiano:

Pare che UE3 sarà il principale motore grafico della PS3, quindi è probabile che adotterà gli ashader unificati.

Illuminami tuuu Fek !!!!

coschizza
16-06-2006, 17:16
Quindi fare una GPU a shader unificati ora come ora è inutile senza applicazioni che lo supportino. In ogni caso prima che tutti i programmatori passeranno a creare giochi solo con shader unificati ne apssera ancora un bel po' di tempo, e quindi non c'è nessun problema se il G80 uscirà a shader separati.

Ma il nuovo motore grafico della crygtek , Unreal engine 3 sono a shader unificati o no ? o possso cmq scegliere se creare giochi a shader unificati con questi due motori grafici? :fagiano:

Pare che UE3 sarà il principale motore grafico della PS3, quindi è probabile che adotterà gli ashader unificati.

Illuminami tuuu Fek !!!!

l'Unreal engine 3 non è stato progettato con in mente gli shader unificati ma la corrente generazione di gpu

http://www.unrealtechnology.com/html/technology/ue30.shtml

la ps3 ha una G71 e quindi una classica scheda video senza shader unificati

comunque anche la microsoft ha detto che il UE3 sarà il motore principale per tutti i suoi giochi sulla xbox 360 in sviluppo ma per ora non si è ancora visto niente, ma entro fine anno dovrebbero finalmente uscire titoli fatti con questa tecnologia.

stop81
16-06-2006, 19:33
comunque anche la microsoft ha detto che il UE3 sarà il motore principale per tutti i suoi giochi sulla xbox 360 in sviluppo ma per ora non si è ancora visto niente, ma entro fine anno dovrebbero finalmente uscire titoli fatti con questa tecnologia.

Gears of War sarà il primo titolo XBOX360 ad impiegare UE3 e ha anche vinto un premio agli E32006 quindi a quanto pare, shader unificati o meno, il gioco è risultato convincente. Io ho visto dei video ed era fluidissimo.

dwfgerw
17-06-2006, 08:53
alla fine quello che dice Kirk nell'intervista è stato confermato anche da Fek, ovvero verrà rilasciata una gpu a shader unificati quando realmente avrà senso...

Ginopilot
17-06-2006, 10:01
Per quanto ne so opengl in vista sara' un layer che sta sopra dx10. Il supporto nativo (non i driver per le schede video!) fu introdotto in nt4. Forse ms sta tentando di affossare questo standard per spingere il suo. Probabilmente i rivenditori dovranno abituarsi a sentirsi dire "vista? no grazie, mi dia xp"

coschizza
17-06-2006, 18:26
Per quanto ne so opengl in vista sara' un layer che sta sopra dx10. Il supporto nativo (non i driver per le schede video!) fu introdotto in nt4. Forse ms sta tentando di affossare questo standard per spingere il suo. Probabilmente i rivenditori dovranno abituarsi a sentirsi dire "vista? no grazie, mi dia xp"

quella che hai descritto è l'implementazione microsoft delle opengl 1.4 che saranno incluse in vista
ma se il produttore delle schede video fara (come fa oggi per xp o 2000) un proprio driver per il sistema operativo allora le opengl saranno supportate almeno quanto è oggi con xp.

in pratica non è che la ms blocca il supporto alle opengl ma semplicemente non lo supporta direttamente nel sistema operativo, lasciando il compito ai driver di terze parti

Ginopilot
17-06-2006, 21:33
In altre parole per poter sfruttare opengl non basta (come si e' fatto fino ad ora) scrivere un driver che si appoggi ad opengl dell'os, ma occorre scriversi il supporto opengl per intero. In pratica, ad esempio, potrebbe non esistere piu' un driver unificato nvidia per geforce e quadro, perche' mentre per la prima l'opengl non e' fondamentale, per le seconde lo e'. Questo fara' lievitare i costi di sviluppo dei driver professionali, con conseguente aumento dei costi dei prodotti.

Grazie microsoft.

MiKeLezZ
18-06-2006, 00:11
alla fine quello che dice Kirk nell'intervista è stato confermato anche da Fek, ovvero verrà rilasciata una gpu a shader unificati quando realmente avrà senso...
quel "quando realmente avrà senso" è molto soggettivo
francamente mi sa molto di "la volpe e l'uva"

coschizza
18-06-2006, 00:46
In altre parole per poter sfruttare opengl non basta (come si e' fatto fino ad ora) scrivere un driver che si appoggi ad opengl dell'os, ma occorre scriversi il supporto opengl per intero. In pratica, ad esempio, potrebbe non esistere piu' un driver unificato nvidia per geforce e quadro, perche' mentre per la prima l'opengl non e' fondamentale, per le seconde lo e'. Questo fara' lievitare i costi di sviluppo dei driver professionali, con conseguente aumento dei costi dei prodotti.

Grazie microsoft.

mi dispiace ma non hai capito quello che ho scritto....capita ;)
il driver per le opengl 2.0 che verrà fatto per vista da parte dei produttori di gpu è praticamente quello che oggi è fatto per windows 2000 o windows xp solo con alcune modifiche per renderlo compatibile con il nuovo kernel.

oggi tutte le gpu per windows usano il driver opengl dei proguttori di schede video, semplicemente in vista accadrà lo stesso.

a livello pratico senza andare in dettagli tecnici inutili e poco chiari ai piu, il supporto dell' opengl in windows vista è "identico" a quello di windows xp, e non capisco perche da quasi 1 anno invece si dica in giro che il supporto non esiste.

la microsoft non supporta direttamente l'opengl da windows 2000 in poi, quindi perche solo ora con vista vengono fuori questi discorsi? inoltre mi sembra ovvio che non lo faccia visto che è un linguaggio che va contro quello propietario, la ms è un azienda commerciale e non dovrebbe stupire quando prende decisioni ovvie per i suoi interessi, in fin dei conti sono le decisioni che avremmo preso anche noi se avessimo avuto qualche responsabilità all'interna dell'azienda.

Ginopilot
18-06-2006, 02:34
In effetti pare che le cose siano cambiate. Dopo le proteste dell'anno scorso ms sembra aver fatto un passo indietro consentendo ai produttori di realizzare driver opengl senza disattivare gli effetti grafici.

Ecco dove se ne e' discusso per un bel po':

http://www.opengl.org/discussion_boards/ubb/ultimatebb.php?ubb=get_topic;f=12;t=000001;p=1

Quanto dici su win2k e' invece inesatto. Il problema non e' l'icd ms, sempre stata una porcheria inutile, ma la possibilita' di utilizzare l'accelerazione opengl dei driver senza compromettere altre funzionalita'.

fek
18-06-2006, 14:05
alla fine quello che dice Kirk nell'intervista è stato confermato anche da Fek, ovvero verrà rilasciata una gpu a shader unificati quando realmente avrà senso...

Oddio, non sono particolarmente d'accordo con quello che ha affermato David in quell'intervista. Per altro alcune affermazioni sono proprio sbagliate, ma dette da David si capisce che e' una questione di marketing, perche' lui sa molto meglio di me cio' di cui parla :)

Secondo me ha molto senso lanciare adesso una GPU a shader unificati per aiutare la transizione. Dal punto di vista dell'utente forse la scelta NVIDIA e' meno rischiosa.

fek
18-06-2006, 14:07
in pratica non è che la ms blocca il supporto alle opengl ma semplicemente non lo supporta direttamente nel sistema operativo, lasciando il compito ai driver di terze parti

Ovvero niente di diverso da quello che accade oggi dove il supporto hardware a OGL e' interamente a carico degli IHV. Con la differenza che in Vista c'e' un supporto accelerato a OpenGL 1.4 attraverso un layer su DX10.

In effetti pare che le cose siano cambiate. Dopo le proteste dell'anno scorso ms sembra aver fatto un passo indietro consentendo ai produttori di realizzare driver opengl senza disattivare gli effetti grafici.

No, e' sempre stato cosi'. Per altro e' esattamente cio' che avevo scritto quando usci' quella notizia molti mesi orsono :)

Ginopilot
18-06-2006, 23:18
All'inizio ms non aveva alcuna intenzione di rendere possibile opengl ed effetti grafici. Poi con le forti pressioni ricevute si e' decisa a fornire il supporto. Ed oggi, a quanto pare, i produttori possono realizzare icd senza problemi.
Leggiti la discussione che ho indicato.

Bonfo
19-06-2006, 11:15
Copio da un'altro post che ho fatto in un'altra discussione.
Qui però è più attiva e forse mi risponderete prima :D :D


Ed e' interessante anche notare che e' proprio il motivo tecnico per il quale i driver ICD di OpenGL dovranno girare in fullscreen e disabilitare Aero, perche', essendo al di fuori del nuovo driver model, non possono garantire la condivisibilita' della GPU fra piu' processi.


Quindi vuol dire che se voglio usare OpenGL "serie", ovvero OpenGL 2.0 implementate direttamente dai IHV, mi devo scordare il Composite Desktop, cioè Aeroglass??

Da quello che ho letto fino ad adesso Vista fornisce una implemntazione delle OpenGL 1.4 che in realtà si poggia sulle DX10. Per usare OpemGL "vere" bisogna sperare che IHV forniscando i driver con il supporto per le OpenGL 2.0 (ma lo faranno? ).

Ma allora mi chiedo...ma c'è qualcosa che con le OpenGL si poteva fare in WinXP e che non si potrà fare in Vista?
E inoltre l'utilizzo di OpenGL sotto Vista farà si che si avrà un OS un po' "amputato"??

Ora provo in 4 frasi a esporre il mio pensiero:
- Siamo in un mercato: MS ha i suoi interessi, come gli users, chi fa le GPU e chi fa i giochi.
- Quelli di MS sono dei mostri: troppo bravi (Anche se Vista sembra averli messi adura prova e forse non sono riscuiti a vincere il primo Match)
- Le teconologie MS mi piacciono.
- Mi piace da matti l'idea di fare codice portabile...con MS è come partorire !!!

Ma allora ecco la domanda conclusiva: perchè se MS è così chiusa ha messo in piedi .NET che è uno standard ECMA ????

LucaTortuga
19-06-2006, 11:50
Tutto bello ed interessante dal punto di vista tecnico. Dato che, in fondo, si sta discutendo di tecnologie rivolte (anche) al mondo videoludico, voglio aggiungere il mio punto di vista da giocatore di vecchia data: francamente, non me ne frega nulla di avere un bosco con 100 alberi piuttosto che uno con 10, o che il personaggio sia composto da 100.000 poligoni e che rifletta l'ambiente circostante. Voglio una modalità di gioco innovativa e coinvolgente, chiedo troppo? Perchè, se vado indietro con la memoria, ricordo di essermi divertito mooolto di più con Super Mario World piuttosto che con HL2 o Doom3 (già immagino le future versioni DX10, giochi identici ma con chissà quale vattelapesca di motore grafico evoluto)? Eppure, ai tempi, manco si sapeva cosa fossero gli shader, figuriamoci se unificati o meno. Capisco che i produttori di schede video abbiano delle famiglie da nutrire, ma è mai possibile che le software house dedichino il 90% dei loro sforzi ad inseguire il realismo del motore grafico e solo il 10% allo studio di trame e gameplay (o così pare)?
Scusate lo sfogo, ma è stato un vero peccato vedere negli anni tutta questa potenza sprecata solo per muovere oggetti 3D che non fanno niente di diverso dagli sprite del C64.

MiKeLezZ
19-06-2006, 13:43
Tutto bello ed interessante dal punto di vista tecnico. Dato che, in fondo, si sta discutendo di tecnologie rivolte (anche) al mondo videoludico, voglio aggiungere il mio punto di vista da giocatore di vecchia data: francamente, non me ne frega nulla di avere un bosco con 100 alberi piuttosto che uno con 10, o che il personaggio sia composto da 100.000 poligoni e che rifletta l'ambiente circostante. Voglio una modalità di gioco innovativa e coinvolgente, chiedo troppo? Perchè, se vado indietro con la memoria, ricordo di essermi divertito mooolto di più con Super Mario World piuttosto che con HL2 o Doom3 (già immagino le future versioni DX10, giochi identici ma con chissà quale vattelapesca di motore grafico evoluto)? Eppure, ai tempi, manco si sapeva cosa fossero gli shader, figuriamoci se unificati o meno. Capisco che i produttori di schede video abbiano delle famiglie da nutrire, ma è mai possibile che le software house dedichino il 90% dei loro sforzi ad inseguire il realismo del motore grafico e solo il 10% allo studio di trame e gameplay (o così pare)?
Scusate lo sfogo, ma è stato un vero peccato vedere negli anni tutta questa potenza sprecata solo per muovere oggetti 3D che non fanno niente di diverso dagli sprite del C64.
Perchè ti lamenti qua se sai che così è la storia?
Cerca di esser propositivo per le tue voglie, comprati un WII e giocati tutta la saga di Mario, con la Virtual Console, dagli albori NES fino al nuovo Galaxy.
Intanto che aspetti, ormai una PS2 non costa niente, prenditi eyetoy, oppure il gioco dei bonghi. O qualcuno con la light gun (Point Blank!).
Non ti basta? MAME, marble Madness e simili, giocati con l'X-Arcade con trackball integrata.
Insomma, se non l'hai capito sono cose di nicchia, se ti interessano, giocaci, ma non puoi imporre il tuo pensiero alla maggior parte della gente.. io e loro vogliamo l'ennesimo FPS con sangue, mostri, e un iperealismo da far cadere la mascella (Crisys!).
Ciao!

LucaTortuga
19-06-2006, 16:55
Perchè ti lamenti qua se sai che così è la storia?
Cerca di esser propositivo per le tue voglie, comprati un WII e giocati tutta la saga di Mario, con la Virtual Console, dagli albori NES fino al nuovo Galaxy.
Intanto che aspetti, ormai una PS2 non costa niente, prenditi eyetoy, oppure il gioco dei bonghi. O qualcuno con la light gun (Point Blank!).
Non ti basta? MAME, marble Madness e simili, giocati con l'X-Arcade con trackball integrata.
Insomma, se non l'hai capito sono cose di nicchia, se ti interessano, giocaci, ma non puoi imporre il tuo pensiero alla maggior parte della gente.. io e loro vogliamo l'ennesimo FPS con sangue, mostri, e un iperealismo da far cadere la mascella (Crisys!).
Ciao!

Forse non mi sono spiegato bene, oppure sto diventando vecchio..
Quello che volevo dire è che ormai nessuno più si spreme il cervello per inventare giochi originali, si prende uno dei tre o quattro modelli in circolazione, ci si applicano delle texture un po' più complesse delle precedenti (tanto per giustificare l'acquisto dell'ultima scheda video da 600 €) e il "giocone dell'anno" è servito.
Anche a me piacciono gli sparatutto in soggettiva (Doom & C.) ma ormai mi sembra di ripercorrere da anni lo stesso gioco, cambiando giusto un pochino la trama (molto poco), l'aspetto dei mostri e qualche arma.
Già il fatto che tu li chiami FPS la dice lunga: sono giochi o benchmarks?
Ho già una PS2, certamente comprerò il Nintendo Wii (sembra siano rimasti soltanto loro a preoccuparsi del gameplay).
Di sicuro il mio discorso non è di nicchia: non voglio tornare alla grafica di 20 anni fa, ma mi piacerebbe che prima di cambiare generazione di video-hardware si fosse sfruttato a dovere quello che c'è ora, che si assumesse qualche sceneggiatore in più e qualche programmatore in meno, che ci fosse ancora in giro gente del calibro di Jeff Minter (se qualcuno se lo ricorda..)
Avremmo tutti da guadagnarci, te compreso. ;)

MiKeLezZ
19-06-2006, 17:40
E' anche vero che più si va avanti con gli anni, meno è facile stupirsi.
Quello che per noi è la solita solfa, per altri è una novità.. e così fino a che non si raggiunge il punto di saturazione, e si ricercano nuove forme di divertimento.

Bonfo
19-06-2006, 18:26
Giusto per farsi due risate su quest'ultimo risvolto:

DECLINE OF VIDEO GAMING (http://www.hwupgrade.it/forum/showthread.php?t=1220063)

DakmorNoland
19-06-2006, 19:49
E' anche vero che più si va avanti con gli anni, meno è facile stupirsi.
Quello che per noi è la solita solfa, per altri è una novità.. e così fino a che non si raggiunge il punto di saturazione, e si ricercano nuove forme di divertimento.

Ma dai lascia stare! :D LucaTortuga ha ragione al 100% oramai si pensa solo + alla grafica!!! E gli sviluppatori implementano solo + quella! A parte qualche rara eccezione. Addirittura ho sentito alcuni sostenere che Oblivion con dettagli medi o con dettagli alti NON E' LO STESSO GIOCO!!! Ridicoli! :)

Anche perchè è assolutamente falso e gli unici a guadagnarci sono i produttori di schede video! :rolleyes:

MiKeLezZ
19-06-2006, 20:01
Ma dai lascia stare! :D LucaTortuga ha ragione al 100% oramai si pensa solo + alla grafica!!! E gli sviluppatori implementano solo + quella! A parte qualche rara eccezione. Addirittura ho sentito alcuni sostenere che Oblivion con dettagli medi o con dettagli alti NON E' LO STESSO GIOCO!!! Ridicoli! :)
Anche perchè è assolutamente falso e gli unici a guadagnarci sono i produttori di schede video! :rolleyes:
Quali sono questi concept originali che vorresti implementati ma a cui i produttori cattivoni non pensano perchè occupati a prendere bustarelle da nvidia e ati?

Ormai si è inventato tutto, è chiaro che tutto poi sembri un remake...

Il WII in realtà non ha nulla di originale: invece che premere un tasto, usi il movimento del polso.. uau, che innovazione. I giochi son sempre gli stessi. Tennis, Golf, salta, spara, trova la chiave, apri la porta.

Si pensa solo alla grafica, perchè, 2 anni fa no? 5? 10? E' così dalla notte dei tempi, altrimenti avremo ancora schermi bicolori verde.

I ricordi annebbiano la mente: "ahh i bei tempi di una volta"... Ma dai.

DakmorNoland
19-06-2006, 20:05
Quali sono questi concept originali che vorresti implementati ma a cui i produttori cattivoni non pensavo perchè occupati a prendere bustarelle da nvidia e ati?
Ormai si è inventato tutto, è chiaro che tutto poi sembri un remake...
Il WII in realtà non ha nulla di originale: invece che premere un tasto, usi il movimento del polso.. che innovazione.
Si pensa solo alla grafica. Perchè, 2 anni fa? O 10? E' sempre stato così, anzi! Più andiamo avanti, meno è sbalorditiva...

Scusa ma un minimo di fantasia!!! Poi non sono certo io a dover inventare se permetti! ;)

MiKeLezZ
19-06-2006, 20:10
Scusa ma un minimo di fantasia!!! Poi non sono certo io a dover inventare se permetti! ;)
In pratica ti lamenti di non avere qualcosa che neppure tu sai cos'è?

DakmorNoland
19-06-2006, 20:21
In pratica ti lamenti di non avere qualcosa che neppure tu sai cos'è?

Si va bene!! Ciao eh! Cosa vuoi che ti dica che hai ragione?

HAI RAGIONE! BRAVO! :D

Bonfo
19-06-2006, 23:44
Uffi...alla mia domanda non ha risposto nessuno :(

Sono comunque convinto di una cosa: FARE VIDEOGIOCHI NON E' FACILE !! :sofico:

I giochi che ricordiamo con più piacere sono quelli che hanno introdotto novità o sul gameplay o sul tema del gioco.

Indubbiamente ora trovare cose nuove è difficile...e probabilemente per non perdere il treno mentre ci si gratta la testa, si fanno i soldi sfruttando idee che hanno avuto successo: io sono d'accordo con dei miei amici da circa 6 anni che svilupperemo insime TombRaider 25 :D :D

Questo non vuol dire che non esista chi innovi...e ciò comprende anche la grafica.
Mi sa che senza la spinta sui motori grafici e fisici in Half Life 2 ce la scordavamo la pistola gravitazionale...che sicuramnete era qualcosa di nuovo.

Ma nerssuno risponde alle mie domande sui OpenGL?? :cry:

bist
20-06-2006, 00:22
Ma allora ecco la domanda conclusiva: perchè se MS è così chiusa ha messo in piedi .NET che è uno standard ECMA ????
Ma infatti da qualche tempo MS è così 'chiusa' come nell'immaginario comune... certamente non farà mai nulla per favorire i prodotti concorrenti, ma questo è ovvio.

bist
20-06-2006, 00:23
Già il fatto che tu li chiami FPS la dice lunga: sono giochi o benchmarks?
Forse confondi First Person Shooter con Frame Per Second.

LucaTortuga
20-06-2006, 10:26
Forse confondi First Person Shooter con Frame Per Second.

Hai ragione, ho preso roma per toma.. :D :ops2:

LucaTortuga
20-06-2006, 10:31
In pratica ti lamenti di non avere qualcosa che neppure tu sai cos'è?

Beh, è ovvio che sia così. Ti faccio un esempio: uno degli ultimi giochi abbastanza originali che io ricordi è stato Black & White.
Ovviamente, prima che uscisse, non mi era mai venuto in mente che mi sarei divertito a crescere ed istruire una mucca alta 30 metri, altrimenti il gioco l'avrei scritto io, non ti pare?

LucaTortuga
20-06-2006, 10:54
Ormai si è inventato tutto, è chiaro che tutto poi sembri un remake...


Questo è un discorso che non regge..
Sembrano pensarla in questo modo, ad esempio, le majors hollywoodiane, ma basta vedere le centinaia di film indipendenti che escono ogni anno per capire che non è affatto inevitabile, è una scelta.
Il problema è lo stesso, si preferisce spendere il 99% del budget per gli effetti speciali e il compenso della Julia Roberts di turno, invece di pagare un bravo sceneggiatore per avere una storia originale.
Stesso discorso in campo musicale: gente come Madonna & C. continuano a propinarci la stessa sbobba insidpida da vent'anni, ma se guardi dietro l'angolo scopri che c'è sempre qualcuno che riesce a combinare le vecchie 7 note in modo davvero innovativo (vedi Beck, System of A down, Daniel Johnston...)
Ora sto andando veramente troppo OT, scusate, mi sono lasciato trascinare.. :blah: :asd:

Plax
21-06-2006, 10:11
Sembra che Microsoft voglia introdurre il supporto alla fisica nelle prossime DirectX:

http://www.extremetech.com/article2/0,1558,1979051,00.asp?kc=ETRSS02129TX1K0000532

draxos
02-07-2006, 12:54
Penso che prima di vedere queste differenze dovra trascorrere qualche anno i processi di cambiamento non sembrano semplicissimi percio consiglio a tutti di non prestare molta attenzione alle voci di corridoio e di tirare le somme a conti fatti! intanto godetevi le vostre directx 9!

lory001
27-07-2006, 21:01
AAA
Scusate per la domanda forse sciocca ma non mi intendo molto di directx e di ciò che vi legato.
Questo è il caso skeda video che supporta DX 9 su pc che supporta DX 10 Con l'avvento delle directx 10 che ne sarà delle skede video che supportano solamente directx 9.0. Potranno ancora essere utilizzate se sul pc è installato un sistemma Vista con un conseguente directx 10? o andranno cambiate con altre che supportino pienamente le directx in questione?
ci saranno dei cali di prestazione e di qualità?
Vi prego di rispondere.

DakmorNoland
27-07-2006, 21:07
AAA
Scusate per la domanda forse sciocca ma non mi intendo molto di directx e di ciò che vi legato.
Questo è il caso skeda video che supporta DX 9 su pc che supporta DX 10 Con l'avvento delle directx 10 che ne sarà delle skede video che supportano solamente directx 9.0. Potranno ancora essere utilizzate se sul pc è installato un sistemma Vista con un conseguente directx 10? o andranno cambiate con altre che supportino pienamente le directx in questione?
ci saranno dei cali di prestazione e di qualità?
Vi prego di rispondere.

La differenza sarà solo per i giochi, Vista girerà perfettamente su schede Directx 9. Cmq anche per i giochi all'inizio credo ci saranno solo lievi implementazioni con DX10 quindi avendo schede video DX9 ci si perderà poco niente nell'esperienza di gioco. Infatti a parte titoli come crysis ch dalle preview sembrano già parecchio basati su DX10, il che è ancora cmq tutto da vedere, per almeno un anno dal lancio di vista si andrà benissimo con scheda DX9. insomma un pò com'è sempre successo...non ci sarà sto cambio improvviso di tendenza, tanto che da un giorno all'altro uno con DX9 rimane fregato ;) sarà una cosa graduale, anzi è probabile che nel primo periodo una GPU DX10 sia del tutto superflua.

lory001
27-07-2006, 21:47
quindi se ho capito bene inzialmente potrò continuare a giocare tranquillamente con la mia scheda DX 9.0 me ntre col passare del tempo saranno richieste sckede DX 10 ?
-Secondo te quanto può essere questo periodo di tempo dopo l'usita di windows Vista?
-Per continuare a giocare dovrò cambiare OS e passare a Vista o potrò almeno in un primo tempo restare a Windows XP?
rispondete

lory001
27-07-2006, 22:26
dakmornoland un altra domanda io ora gioco al pc con scheda grafica DX 8.1 senza problemi dove vieni richiesta piena compatibilità a DX 9.0 perciò secondo te o secondo voi sarà possibile giocare con una scheda grafica DX 9.0 a giochi che richiedono DX 10?
Naturalmente ci sarà un grosso calo prestazionale, ma ciò che mi interessa sapere è se è possibile.

Athlon 64 3000+
31-07-2006, 11:08
http://www.tomshw.it/news.php?newsid=7145

joshA
03-08-2006, 15:03
lory puoi tenere la tua vga dx9 per tutta la vita.
windows vista le suporterà sempre.
puoi anke continuare a usare xp dopo l'uscita di vista.nessun passaggio al nuovo è obbligato.
ciao, josh ;)

7wolf
02-09-2006, 21:29
QUANTO SONO RETROCOMPATIBILI?
Ma non è che se uno compra una scheda video nativa per le DX10 poi ho problemi con i giochi in DX 9 o 8.1 o meno? :P
O da quanto almeno ho capito anche quelli gireranno meglio per il discorso del minore overhead? ^_^
Ok se volete potete pure inveire :(