PDA

View Full Version : Nuovi chip ATI non Shader 3.0?


Redazione di Hardware Upg
11-03-2004, 17:55
Link alla notizia: http://news.hwupgrade.it/11999.html

Alcuni rumors evidenziano come le nuove architetture ATI R420 e R423, soluzioni top della gamma attese per i prossimi mesi, non avranno supporto agli Shader 3.0

Click sul link per visualizzare la notizia.

nicgalla
11-03-2004, 17:57
Eh i rumor.... speriamo che Paolo al ritorno dello Snowbit possa darci qualche indizio per capire come andranno le cose....

not real
11-03-2004, 18:06
non so se sarà una scelta saggia, anche se non ci sono giochi che lo supportano potevano metterlo lo stesso, non tutti si comprano la scheda nuova ogni mese

ErminioF
11-03-2004, 18:13
Non so se sia un bene o un male, però è certo che nvidia ed ati stanno percorrendo strade totalmente differenti per la prossima generazione...vedremo chi avrà ragione :)

lasa
11-03-2004, 18:37
Inutile perdersi in balle...tocca aspettare....è brutto, ma è così...il tempo dirà la verità....

Dumah Brazorf
11-03-2004, 18:50
Credo passerà un annetto o 2 prima che escano giochi con PS 3.0, non è una cosa da strapparsi i capelli...
Ciao.

AndyMetaL
11-03-2004, 18:51
@ Redazione: Vi è piaciuto così tanto il 2003? :D scherzo...

comunque non girano voci molto buone in questo periodo su R420 e R423 ma concordo con lasa, bisogna aspettare e vedere i test

phobos04
11-03-2004, 19:58
ATI for ever con o senza PS 3.0 (che poi per tutto il 2004 non lo vedremo in nessun gioco).

Vangelis
11-03-2004, 20:06
se cosi fosse nvidia fara grossa leva sulla sua effettiva implementazione.... e sulla confezione ci sara tanto di bollino da 20cm di diametro PS 3.0 READY ;)

pikkoz
11-03-2004, 20:12
Giusto vangelis, tipo la fx 5200 dove c'e' scritto directx9 grande quasi come la scatola ..

halduemilauno
11-03-2004, 20:34
le chiacchiere stanno a zero. a parti invertite avreste sputato fuoco e fiamme contro nVidia.
sempre se è vero.
;)

Marci
11-03-2004, 20:55
ATI for ever con o senza PS 3.0 (che poi per tutto il 2004 non lo vedremo in nessun gioco).
diciamo che quando venne fuori che l'NV30 non supportava appieno le DX9 venne fuori uno scandalo :rolleyes:
io non tifo per nessuno, secondo me, essendo aziende, tendono entrambe ad avere il massimo guadagno con la minima spesa.
Byezz ;)

pg08x
11-03-2004, 21:15
Originariamente inviato da Marci
diciamo che quando venne fuori che l'NV30 non supportava appieno le DX9 venne fuori uno scandalo :rolleyes:
io non tifo per nessuno, secondo me, essendo aziende, tendono entrambe ad avere il massimo guadagno con la minima spesa.
Byezz ;)

Ricordo che avevo la radeon 8500 con i pixel shader 1.4 e non vennero mai implementati da nessuna software house perchè nvidia (che ai tempi produceva le geforce3) forte della sua posizione di leader dichiarò che non li avrebbe mai supportati, neppure sulla prossima generazione (geforce4) ancora da uscire. Nvidia dichiarò inoltre che sarebbe passata direttamente ai pixel shader 2 (cosa che fece solo ANNI dopo, mentre discoraggiava gli sviluppatori dall'utilizzare i nuovi shaders).

Per quanto riguarda la compatibilità directx9 E' vero nv30 non supporta la precisione a 24 bit che è standard directx9.
Questo si traduce NON nell'utilizzo della precisione a 32bit (che sarebbe troppo lenta) ma bensì nel downscaling a 16bit (tanto
Carmak dice che a 16bit di precisione gli shader in doom3 avranno un aspetto "quasi" uguale).

E' quel "quasi" che non mi piace NB: allo stesso tempo su nvitalia lodavano i pregi di utilizzare una precisione maggiore (parlando addirittura dei 32bit di fatto inutilizzabili in un'applicazione reale perchè troppo lenti con nv30) per non parlare poi dell' implementazione degli shaders già scadente progettualmente.

Concludo dicendo che quando, in estremo ritardo, è uscito nv30 i directx9 erano già una realtà e che quelli che ho citato NON sono rumors ma fatti documentati.

Dark Schneider
11-03-2004, 21:28
Originariamente inviato da pg08x
Ricordo che avevo la radeon 8500 con i pixel shader 1.4 e non vennero mai implementati da nessuna software house perchè nvidia (che ai tempi produceva le geforce3) dichiarò che non li avrebbe mai supportati, neppure sulla geforce4 che doveva ancora uscire e che sarebbe poi passata direttamente ai pixel shader 2 (cosa che fece solo ANNI dopo, mentre discoraggiava gli sviluppatori dall'utilizzare i nuovi shaders).

Per quento riguarda la compatibilità directx9 E' vero nv30 non supporta la precisione a 24 bit che è standard directx9.
Questo si traduce non nell'utilizzo della precisione a 32bit (che sarebbe troppo lenta) ma bensì nel downscaling a 16bit (tanto
Carmak diceva che a 16bit di precisione lo shader in doom3 avrebbe avuto un aspetto "quasi" uguale).

E' quel "quasi" che non mi piace se vai su nvitalia lodano i pregi di utilizzare una precisione maggiore (32bit) che non vengono mai usati appunto per problemi di performance su un'implementazione degli shaders già scadente progettualmente.

Quando, in estremo ritardo, è uscito nv30 i directx9 erano già una realtà e quelli che ho citato NON sono rumors.

La microsoft ha messo come standard la versione 1.1 dei PS nelle DX8....poi per supportare Ati che aveva i 1.4 li inserì nelle DX8.1!! Ma poi sono le software house che devono supportare. Evidentemente le software house hanno voluto rispettare lo standard DX8 invece di mettersi a programmare anche i PS 1.4 che erano un po' "fuori specifiche"...magari in bene, ma lo standard erano i 1.1!!


Cmq riguardo allo "standard" DX9.....visto gli Shader 3.0 probabilmente da ora sarà più corretto dire che full DX9 sono le schede che supportano anche gli shader 3.0!! O cmq parlare di requisito minimo per essere una scheda DX9 le specifiche delle attuali schede di fascia alta. Lo standard DX9 ancora non è ben definito.

Dark Schneider
11-03-2004, 21:33
Originariamente inviato da halduemilauno
le chiacchiere stanno a zero. a parti invertite avreste sputato fuoco e fiamme contro nVidia.
sempre se è vero.
;)


Purtroppo è vero. Ammesso che questa notizia si riveli veritiera, SE era nVidia a non supportare i 3.0 molti qui a gettar m su nVidia... :rolleyes:

pg08x
11-03-2004, 21:38
Originariamente inviato da Dark Schneider
La microsoft ha messo come standard la versione 1.1 dei PS nelle DX8....poi per supportare Ati che aveva i 1.4 li inserì nelle DX8.1!!

Documentati meglio, quando ATI uscì con la 8500 Microsoft aveva già dettato le specifiche del directx 8.1 che è uno STANDARD !!! ed è pure durato molto più dell' 8.0 !

A Novembre 2001 Microsoft aveva già distribuito il directX 8.1 versione le cui specifiche erano già disponibili almeno da un anno.

Allora se vale il tuo discorso dato che directX9 è uscito molto tempo dopo la 9700 Microsoft ha fatto lo standard directx9 per venire incontro ad ATI :sofico:

(PS: Scusa il tono un pò arraffato, in fondo mi diverto a scrivere queste cose)

aceto876
11-03-2004, 21:40
halduemilauno ha perfettamente ragione.Se ci fosse stato un rumor secondo cui nVidia non avrebbe implementato gli shader 3 sarebbe stato il finimondo.Anzi tutto è da vedere se il rumor è vero.Nel caso in cui nVidia fosse conforme e ATI no non sarebbe ancora determinata la scelta vincente.Certo se ATI avesse ragione nel dire che non saranno mai usati,per loro sarebbero un sacco di transistor e costi di produzione in meno.
Ma potrebbe anche darsi che questi benedetti shader 3 vengano prima o poi usati.O magari essere un potentissimo strumento di marcheting per nVidia.Solo il tempo ci dirà.
Poi magari è tutta una bufala e se la giocheranno ad armi pari quanto a features.
In ogni caso io mi rivolgerò a chi darà prestazioni migliori rispetto al prezzo

pg08x
11-03-2004, 21:43
Originariamente inviato da aceto876
halduemilauno ha perfettamente ragione.Se ci fosse stato un rumor secondo cui nVidia non avrebbe implementato gli shader 3 sarebbe stato il finimondo.Anzi tutto è da vedere se il rumor è vero.Nel caso in cui nVidia fosse conforme e ATI no non sarebbe ancora determinata la scelta vincente.Certo se ATI avesse ragione nel dire che non saranno mai usati,per loro sarebbero un sacco di transistor e costi di produzione in meno.
Ma potrebbe anche darsi che questi benedetti shader 3 vengano prima o poi usati.O magari essere un potentissimo strumento di marcheting per nVidia.Solo il tempo ci dirà.
Poi magari è tutta una bufala e se la giocheranno ad armi pari quanto a features.
In ogni caso io mi rivolgerò a chi darà prestazioni migliori rispetto al prezzo

Nvidia non implementò PER DAVVERO gli shaders 1.4 e il directX 8.1 e nessuno disse niente ! :mad:

shrubber
11-03-2004, 21:54
C'è inoltre da segnalare come non siano previsti, almeno per il momento attuale, giochi in debutto nel 2003 che faranno utilizzo di Shader 3.0

2004 casomai ;-)

DjLode
11-03-2004, 22:21
Orbene quella della FX non Dx9 per via della precisione di calcolo FP mi è nuova e me la segno...
Una domanda, ma non ti stanchi mai a dipingere Nvidia come una società mafiosa? Riguardo ai fatti documentati sinceramente non capisco dove quello che porti come esempio sia a dimostrazione delle conclusioni a cui arrivi. Ma pazienza...

DjLode
11-03-2004, 22:22
Originariamente inviato da pg08x
Nvidia non implementò PER DAVVERO gli shaders 1.4 e il directX 8.1 e nessuno disse niente ! :mad:

E quindi? Non implementò le Dx 8.1? Ma.... le Gf4 cosa sarebbero secondo te? Suvvia non facciamo confusione che poi magari c'è gente che ci crede :)

^TiGeRShArK^
11-03-2004, 23:16
Si certo Dark Schenider, da oggi diciamo tutti ke le UNICHE schede dx9 sono quelle ke ancora nvidia non ha neanche presentato con supporto pixel shader 3.0.
In effetti la 9700 di due anni fa non era x niente dx9.
X nn parlare di tutte le skede venute dopo, partendo dalla skifosissima 5200 e finendo a nv35 e r350....
Cioè secondo te, dopo averci riempito di marketing con le dx9, si metteranno a dire ke ki si è letteralmente svenato x una 5950 ultra in realtà ha comprato una scheda "che non è full dx9"?!?
ma fammi il piacere dai!

pg08x
11-03-2004, 23:24
Originariamente inviato da DjLode
E quindi? Non implementò le Dx 8.1? Ma.... le Gf4 cosa sarebbero secondo te? Suvvia non facciamo confusione che poi magari c'è gente che ci crede :)

Il guaio è che nvidia le fa TALMENTE GROSSE che la gente nemmeno ci crede, si dice non può essere possibile. :mad:

Capisco che non ci vuoi credere quindi vatti a leggere le caratteristiche di DirectX 8.1 rispetto a Directx 8.0 sull' MSDN (Microsoft Developer Network)

http://msdn.microsoft.com/archive/default.asp?url=/archive/en-us/dx81_c/directx_cpp/intro/dx8whatsnew.asp

Vedrai che, se escludiamo i nuovi tools di aiuto allo sviluppo questa versione di directx (che è durata anni) ha come unica novità a livello di implementazione hardware proprio i pixel shaders.

NB I pixel shaders 1.4 non sono stati supportati da nvidia che spingeva gli sviluppatori a non implementarli per non dare alla concorrenza un grosso vantaggio, vale a dire IL RENDERING DELLO SHADER CON UN SOLO PASSAGGIO GIA' DAI TEMPI DELLE RADEON 8500 cosa non possibile in casa nvidia neppure con le geforce4... (ricordi quello che Carmak diceva delle radeon 8500 ...) )

dwfgerw
11-03-2004, 23:25
certo che dal punto dell'utente non ci dovrebbero essere particolari problemi mal dal punto di vista dell'innovazione sarebbe una delusione questo r420.
Alla fine se le spec verranno confermate si tratterà "solo" di un R360 ultra pompato con 32bit FP true e basta niente di veramente nuovo.
Forse questa volta nvidia la risorpassa....

pg08x
11-03-2004, 23:28
Originariamente inviato da dwfgerw
certo che dal punto dell'utente non ci dovrebbero essere particolari problemi mal dal punto di vista dell'innovazione sarebbe una delusione questo r420.
Alla fine se le spec verranno confermate si tratterà "solo" di un R360 ultra pompato con 32bit FP true e basta niente di veramente nuovo.
Forse questa volta nvidia la risorpassa....

Sono solo rumors, fossi in te aspetterei a preoccuparmi :)

pg08x
11-03-2004, 23:34
Originariamente inviato da DjLode
E quindi? Non implementò le Dx 8.1? Ma.... le Gf4 cosa sarebbero secondo te? Suvvia non facciamo confusione che poi magari c'è gente che ci crede :)

Se non ti garbano le info in inglese potresti leggere proprio su questo sito

http://news.hwupgrade.it/11710.html

così sfatiamo ogni dubbio su directx 9.0b 9.0c
e soprattutto sui Boicottati shaders 1.4 del DirectX 8.1 che nvidia ripeto dichiarò già dai tempi delle geforce 3 che non avrebbe implementato per passare poi ai 2.0 (cosa che fece solo anni dopo)

Quando scrivo qualcosa non me la invento mica ;) potresti anche crederci :D

DjLode
11-03-2004, 23:51
Originariamente inviato da pg08x
Se non ti garbano le info in inglese potresti leggere proprio su questo sito

http://news.hwupgrade.it/11710.html

così sfatiamo ogni dubbio su directx 9.0b 9.0c
e soprattutto sui Boicottati shaders 1.4 del DirectX 8.1 che nvidia ripeto dichiarò già dai tempi delle geforce 3 che non avrebbe implementato per passare poi ai 2.0 (cosa che fece solo anni dopo)

Quando scrivo qualcosa non me la invento mica ;) potresti anche crederci :D

Hai scritto che non implementò le Dx 8.1, è falso. Te l'ho fatto notare ma ne sei ancora convinto. Le Gf4 sono Dx 8.1
Che non abbia implementato i Ps 1.4 è cosa nota e sinceramente rivangarla ancora non capisco che senso abbia. I Ps 1.3 facevano le stesse cose ma in più passate e se le prestazioni erano sufficienti, perchè sbattersi? Ripeto, stai portando notizie vere, le spacci per boicottagi e mafiosamenti (passatemi la parola) per giungere a conclusioni che dal punto di vista logico non hanno senso.
Se no io mi metto a dire che Ati ha boicottato Matrox e portando esempi simili ai tuoi non puoi che darmi ragione.

pg08x
12-03-2004, 00:01
Originariamente inviato da DjLode
Hai scritto che non implementò le Dx 8.1, è falso. Te l'ho fatto notare ma ne sei ancora convinto. Le Gf4 sono Dx 8.1
Che non abbia implementato i Ps 1.4 è cosa nota e sinceramente rivangarla ancora non capisco che senso abbia. I Ps 1.3 facevano le stesse cose ma in più passate e se le prestazioni erano sufficienti, perchè sbattersi? Ripeto, stai portando notizie vere, le spacci per boicottagi e mafiosamenti (passatemi la parola) per giungere a conclusioni che dal punto di vista logico non hanno senso.
Se no io mi metto a dire che Ati ha boicottato Matrox e portando esempi simili ai tuoi non puoi che darmi ragione.

Ho scritto che non implementò i pixel shaders 1.4 che erano parte integrante delle directX 8.1, infatti ho citato un link all'msdn http://msdn.microsoft.com/archive/d...dx8whatsnew.asp
dove si evince chiaramente che il directx 8.1 richiede come novità hardware SOLO il supporto ai pixel shaders 1.2 1.3 e 1.4(che sono poi quelli che richiedono una logica implementativa più complessa, da soli + degli altri 2 messi insieme).

E ripeto per l'ennesima volta: "I pixel shaders 1.4 non sono stati supportati da nvidia che addirittura spingeva gli sviluppatori a non implementarli per non dare alla concorrenza un grosso vantaggio, vale a dire IL RENDERING DELLO SHADER CON UN SOLO PASSAGGIO GIA' DAI TEMPI DELLE RADEON 8500 cosa non possibile in casa nvidia neppure con le geforce4...
e del tutto inutile per ATI che ha dovuto sottostare al forte potere di marketing di nvidia.

DjLode
12-03-2004, 00:06
Originariamente inviato da pg08x
Ho scritto che non implementò i pixel shaders 1.4 che erano
[/B]

Leggi:
"Nvidia non implementò PER DAVVERO gli shaders 1.4 e il directX 8.1 e nessuno disse niente "


parte integrante delle directX 8.1, infatti ho citato un link all'msdn http://msdn.microsoft.com/archive/d...dx8whatsnew.asp
dove si evince chiaramente che il directx 8.1 richiede come novità hardware il supporto ai pixel shaders 1.2 1.3 e 1.4


Quindi le Gf4 sono Dx 8.1.

pg08x
12-03-2004, 00:12
Originariamente inviato da DjLode
Leggi:
"Nvidia non implementò PER DAVVERO gli shaders 1.4 e il directX 8.1 e nessuno disse niente "



Quindi le Gf4 sono Dx 8.1.


Ma allora sei de coccio ;)

Per essere DirectX 8.1 full compliant una scheda deve supportare pixel shaders 1.2 e 1.3 e 1.4

Considera che la vera novità erano appunto la versione 1.4 che da sola permette di fare quello che fai con tutte le altre versioni senza applicare + shaders differenti in molteplici passate
Ed ha richiesto una quantità di transistors tale da superare abbondantemente tutte le altre messe insieme.

DjLode
12-03-2004, 00:16
Originariamente inviato da pg08x
Per essere DirectX 8.1 full compliant una scheda deve supportare pixel shaders 1.2 e 1.3 e 1.4


Quindi le gpu R3x0 e NV3x non sono full dx9 compliant?

pg08x
12-03-2004, 00:16
Faccio un esempio terra terra.

Se dico che Una scheda "pippo8.1" compliant deve supportare le addizioni e le moltiplicazioni.
Ovviamente se supporta solo le addizioni non è pippo1 compliant :D

Certo per fare 100x5 poi sempre fare 100+100+100+100+100 e dicendo che tu non supporterai mai le moltiplicazioni (e tu sei leader di mercato in quel momento) obblighi gli sviluppatori a fare
100+100+100+100+100 anche su quell'hardware (guarda caso della concorrenza) dove avrebbero potuto fare 100x5 !

Insomma, a me sembra una bastardata :mad: ma non me la prendo con te ma bensì con nvidia come avrai ben capito.

pg08x
12-03-2004, 00:24
Originariamente inviato da DjLode
Quindi le gpu R3x0 e NV3x non sono full dx9 compliant?

le geforce 3 e 4 non sono directx 8.1 full compliant perchè non supportano gli shaders 1.4 (che sono la principale novità di questa versione del directx)
La radeon 8500 è directx 8.1 full compliant (ma questa sua caratteristica viene bene solo adesso, prima nvidia assolutamente sconsigliava di usare gli shaders 1.4)

nv3x e r3x0 sono full directx 8.1 compliant (solo all'ultimo si è saputo che geforce fx avrebbe supportato gli shaders 1.4, le intenzioni originali erano di saltarlo per la versione 2.0 direttamente in modo da disorientare gli sviluppatori)

r300 è full directx 9.0b compliant
nv3x è directx 9.0b compliant eccetto per il supporto alla precisione a 24bit negli shaders (nvidia per ragioni di marketing ha preferito implementare la precisione a 16bit e 32bit. Quella a 32bit tanto pubblicizzata su siti come nvitalia di fatto non viene usata per motivi di performance, dove r300 usa i 24bit standard nv3x usa 16 bit per i calcoli).

DjLode
12-03-2004, 00:26
E' quello che ti sto dicendo da un'ora, parti da fatti e arrivi a conclusioni totalmente errate. Secondo quello che dici le Gf4 non sono Dx 8.1, la 9700 e la 5900 (esempi) non sono dx9 e se R420 non supporterà gli shader 3.0 non sarà dx 9 mentre NV40 sì. Tutte cose totalmente false. Secondo il tuo esempio devi dare in pasto ad una cpu 2x3, la prima sputerà fuori 6 facendo la moltiplicazione, la seconda sputerà fuori 6 esattamente come la prima ma dovrà scomporre la moltiplicazione in addizione, e farà 2 + 2 = 4 + 2 = 6. Se dai in pasto una cosa standard ad un qualcosa e questo ti sputerà fuori il risultato esattamente come deve saltare fuori, quello che c'è in mezzo mi dispiace ma non conta.
Così le Gf4 sono dx 8.1 perchè dandogli in pasto uno shaders scritto come mamma MS comanda, sputerà fuori il risultato della 8500, soltanto ci metterà più tempo. Non è una bastardata, sono semplicemente approcci diversi per ottenere lo stesso risultato, così come ci sono n-mila algoritmi di ordinamento che (chi in tempo esponenziale chi in tempo logaritmico) arrivano sempre al medesimo risutalto.
Poi che Nvidia tu non la possa vedere è palese, ma mi ri-cito, non mettiamo in giro voci, qualcuno magari poi ci crede :)

pg08x
12-03-2004, 00:34
Originariamente inviato da DjLode
E' quello che ti sto dicendo da un'ora, parti da fatti e arrivi a conclusioni totalmente errate.


Mi spiace ma hai completamente frainteso (rileggi tutto meglio per favore)

Riguardo al discorso delle moltiplicazioni [B]NON SUPPORTARE GLI 1.4 VUOL DIRE NON POTERLI USARE DA PARTE DI CHI SVILUPPA !!![B]

Io ho fatto l'esempio delle addizioni e delle moltiplicazioni.
E' come se con tutte e due le schede si insistesse ad usare le addizioni quando con una di queste ci sono anche le moltiplicazioni.

Hai capito adesso ?

Spero di si perchè ho sonno !!!

DjLode
12-03-2004, 00:35
Originariamente inviato da pg08x
le geforce 3 e 4 non sono directx 8.1 full compliant perchè non supportano gli shaders 1.4 (che sono la principale novità di questa versione del directx)
[/B]

Ok, partiamo da questo assunto.


La radeon 8500 è directx 8.1 full compliant (ma questa sua caratteristica viene bene solo adesso, prima nvidia assolutamente sconsigliava di usare gli shaders 1.4)


Vabbhè e se la sconsigliava? Se tutti le sono andati dietro forse un fondo di verità c'era? O no?


nv3x e r3x0 sono full directx 8.1 compliant (solo all'ultimo si è saputo che geforce fx avrebbe supportato gli shaders 1.4, le intenzioni originali erano di saltarlo per la versione 2.0 direttamente in modo da disorientare gli sviluppatori)


Disorientare gli sviluppatori? Ma che ti inventi. E' sempre stato risaputo che a livello di codice gli shaders 2.0 non erano compatibili con i vecchi, quindi si è sempre saputo che le nuove gpu avrebbero integrato gli shaders vecchi. E se lo sapevo io, fidati che lo sapevano anche gli sviluppatori anche se come dici tu Nvidia li faceva fumare roba pesante per disorientarli (mi immagino Carmack che gira farfugliando "mmmmm.... shaders.... mmmm ..... 2.0 ..... mmmmmmm" ma per favore).


r300 è full directx 9.0b compliant


Se NV25 non è full dx8.1 compliant per via della mancanza dei ps 1.4, come può essere R3x0 full dx 9 compliant prevedendo questo standard i PS e i VS 3.0 nelle specifiche? Mah, mistero della fede (in Ati ovvio).


nv3x è directx 9.0b compliant eccetto per il supporto alla precisione a 24bit negli shaders (nvidia per ragioni di marketing ha preferito implementare la precisione a 16bit e 32bit. Quella a 32bit tanto pubblicizzata su siti come nvitalia di fatto non viene usata per motivi di performance, dove r300 usa i 24bit standard nv3x usa 16 bit per i calcoli).

Scusa ma perchè leggi roba su internet o chissà dove, metti tutto dentro ad un frullatore e spari fuori quello che ti pare a te? NV3x è dx 9 se lo è anche R300. Nvidia per ragioni sue (chi ha detto OGL 2.0 vince una birra ma a te sfugge forse che non esistono solo le Dx) ha implementato due precisioni di calcolo diverse a 16 e a 32bit. Ti ricordo che la precisione minima delle dx9 sono i 16bit, chiedi a fek delucidazioni sicuramente si saprà spiegare meglio di me visto che sulle dx ci lavora, io invece ci parlo soltanto.
Che poi le FX scalino per motivi di performance da 32bit a 16bit, non vedo cosa c'entri con le dx9. Riguarderà soltanto gli sviluppatori. E qui ri-cito fek, ha detto che ora come ora è praticamente impossibile scrivere shaders che portino ad approssimazioni anche usando i 16bit, quindi la differenza non esiste (ma forse ti sfugge la differenza tra le precisioni di calcolo), o ancora oggi non c'è modo di vederla.

pg08x
12-03-2004, 00:41
Ma chi ti paga nvidia ?

ho detto e ripeto che le geforce 3 e 4 non supportano pienamente directx 8.1

le geforce fx sono directx 9 compliant eccetto per la precisione a 24bit. (di fatto ne usano 16)

r300 e directx9 full compliant

[B]gli shaders 3.0 non centrano perchè si parla di una versione ancora da venire che si chiamerà 9.1 o 9.0c[B]

Ma cosa mi vuoi mettere in bocca ?

Informati meglio e buona notte

pg08x
12-03-2004, 00:43
Originariamente inviato da DjLode


ho detto e ripeto che le geforce 3 e 4 non supportano pienamente directx 8.1

le geforce fx sono directx 9 compliant eccetto per la precisione a 24bit. (di fatto ne usano 16)

r300 e directx9 full compliant

[B]gli shaders 3.0 non centrano perchè si parla di una versione ancora da venire che si chiamerà 9.1 o 9.0c[B]

Ma cosa mi vuoi mettere in bocca ?

Informati meglio e soprattutto rileggi bene quello che ho scritto, magari passerai una buona notte
:D

Dark Schneider
12-03-2004, 02:44
Originariamente inviato da ^TiGeRShArK^
Si certo Dark Schenider, da oggi diciamo tutti ke le UNICHE schede dx9 sono quelle ke ancora nvidia non ha neanche presentato con supporto pixel shader 3.0.
In effetti la 9700 di due anni fa non era x niente dx9.
X nn parlare di tutte le skede venute dopo, partendo dalla skifosissima 5200 e finendo a nv35 e r350....
Cioè secondo te, dopo averci riempito di marketing con le dx9, si metteranno a dire ke ki si è letteralmente svenato x una 5950 ultra in realtà ha comprato una scheda "che non è full dx9"?!?
ma fammi il piacere dai!


Pensala come vuoi ma con l'introduzione degli shader 3.0...gli shader 3.0 diventeranno degl standard delle DX9. Gli shader 3.0 non sono un qlc di aggiunto alle dx9...ma qlc che fa parte delle dx9 esattamente quanto gli shader 2.0!
Se vuoi si può parlare di 2 livelli di DX9: quello minimo per essere considerato DX9 e quello più avanzato con gli shader 3.0!!
Le DX9 sono delle librerie un po' più ampie rispetto alle precedenti versioni. Gli shader 3.0 fanno parte delle DX9 punto.
Semplicemente si può fare una suddivisione di 2 livelli a mio parere.

psychok9
12-03-2004, 02:45
pg08x Hai ragione da vendere... e sottoscrivo!;)
Però cè un detto che dice... "non cè peggior sordo..."?:cool:
Ci siamo capiti...
W nVidia.................:muro:

Dark Schneider
12-03-2004, 02:56
Originariamente inviato da DjLode
Orbene quella della FX non Dx9 per via della precisione di calcolo FP mi è nuova e me la segno...
Una domanda, ma non ti stanchi mai a dipingere Nvidia come una società mafiosa? Riguardo ai fatti documentati sinceramente non capisco dove quello che porti come esempio sia a dimostrazione delle conclusioni a cui arrivi. Ma pazienza...


La penso esattamente come te.

Mamma mia quant'è cattiva nVidia se è come la dipinge pg08x....proprio un produttore mafioso :D


pg08x e se nVidia domani fa uscire delle nuove librerie in stile Glide...scoppia la terza guerra mondiale per te? :D

E pg08x ti dico anche che NON mi devo documentare proprio per niente.

psychok9
12-03-2004, 03:03
Che commenti inutili...
nVidia come ATi fa i propri interessi ed è ovvio che se fa una c@#@# cerca di fare il possibile per minimizzare i danni (d'immagine).

kbytek
12-03-2004, 03:23
Se fosse stata nvidia a non supportare quella feature sarebbe stata criticata...perchè nvidia va criticata a priori e per tutto il tempo che sarà necessario a ripagare lo sputtanamento e le prese per il culo che ha messo in atto.

Si si...io sono di parte e me ne frego di avere equilibrio, ATI è in cima alle simpatie degli utenti perchè? Perchè ha le migliori schede che ci siano in giro adesso e punto!

Ma non è che è un parere,è proprio oggettivo e lapalissiano.

Detto questo c'è poco da scandalizzarsi se una persona ci mette anche la passione nelle proprie opinioni e non rimane asettico di fronte ai benchmark per fare l'informaticone che valuta come un cyborg.

Io sono un essere umano e mi piace fare il tifo anche per le marche oltre che per un sacco di altre cose futili.

Ma beata l'ignoranza di chi non gli regala una lira anche solo per il logo a quei mentecatti che producono Nvidia.

Quando torneranno umili senza avere il monopolio come pensava di poter fare Intel (W AMD) allora a testa bassa invece di fare SOLO marketing faranno schede.

Ma voi intorno vi siete accorti che AMD e ATI ,senza discorsi da esperti , stanno nei pc dell'80% delle persone.

Ma fatelo sto sondaggio anche qua su HWup...non si possono accontentare anche le persone che vogliono rilassarsi con tifoserie da stadio?

La linea editoriale...bla bla...e fateci godere anche con qualche angolino meno borghese.

W il popolo W AMD W ATI...ahhhhhhhhh...sguazzo nella stupidità e mi sento bene.

cdimauro
12-03-2004, 07:30
Se Ati non implementa per intero i PS 3.0, la vedo dura: nVidia potrà utilizzarlo come cavallo di battaglia per la sua riscossa. E giustamente!

Quanto alla diatriba sulle DX: supportare le DX 8.1 o 9.0 non vuol dire implementare in hardware TUTTE le specifiche dello standard. Una scheda può benissimo decidere di implementarne un sottoinsieme, ed essere comunque compliant con quella versione. Di fatti i driver comunicano alle applicazioni richiedenti quali di capacità sono dotate, e queste ultime si adeguano.

Gio&GIO
12-03-2004, 08:37
[B]
Ma voi intorno vi siete accorti che AMD e ATI ,senza discorsi da esperti , stanno nei pc dell'80% delle persone.
...........
W il popolo W AMD W ATI...ahhhhhhhhh...sguazzo nella stupidità e mi sento bene.

Se sei contento di sguazzare nella stupidità è un tuo problema .............. ma arrivare a scrivere che AMD e ATI stanno nei pc dell'80% delle persone vuol dire non essere realisti ed obbiettivi! In questo forum forse, ma a livello "globale" è Intel a farla da "padrona" e non AMD.
Per ATI è un discorso diverso ..............

Gio&Gio

Wonder
12-03-2004, 09:17
A leggere il vostro accanimento la prima domanda che mi sorge è: ma avete degli interessi per la vostra vita reale o siete solo capaci di bisticciare?

x kbytek
bellissime parole che sottoscrivo in pieno

x tutti gli altri
ma che cavolo ve ne importa se non ha i PS3.0??? Tanto per quando usciranno giochi che usano PS3.0 avrete già cambiato scheda 2 volte, oppure i giochi con PS3.0 che usciranno fra 2 anni richiederanno tanta potenza che la vostra R420 (sempre se li supporterà) non ci starà dietro e dovrete cambiarla. Quindi tutte queste chiacchiere sono fini a loro stesse perchè non ci sarà mai uno scenario di R420 + gioco con PS3.0.

Buongiorno

barabba73
12-03-2004, 09:22
Quoto Wonder.
Indipendentemente dalla marca, non mi interessa che una scheda sia compliant con qualcosa che oggi, domani e probabilmente dopodomani non serivrà. Lunedì, se sarà il caso, acquisterò una nuova scheda ... !

leoneazzurro
12-03-2004, 09:32
Un solo piccolo appunto, la precisione minima del calcolo sui PS per essere compliant DX9 è 16 bit, non 24.

Raven
12-03-2004, 09:41
Da qui in avanti non saranno più tollerati flame e/o post inutilmente polemici...

lucio68
12-03-2004, 10:19
Ho una Radeon 9000pro, quindo dirextx 8.1 (parzialmente o totalmente non mi interessa un gran che). Qualche mese fa installando non ricordo quale gioco mi è stato richiesto di installare anche le dx 9 se no il gioco non avrebbe funzionato. Le ho installate e ho giocato a quel gioco che, a detta degli sviluppatori, necessava supporto hardware alle dx9. Per ora sono riuscito a far girare tutti i giochi dx9 che ho provato, eppure non ho supporto hardware!!! Allora mi chiedo: sono i giochi stessi che non sono codificati secondo le dx9 oppure laddove non c'è supporto hardware subentra il software?

leoneazzurro
12-03-2004, 10:45
I giochi che sono attualmente in commercio non sfruttano appieno le D9. Poi c'è da pensare che alcune features che non sono supportato in hardware dalla scheda possono essere emulate via software. Del resto, bisogna considerare che:

1) Se così non fosse, non si potrebbero assolutamente neppure installare le Direct X su sistemi non aggiornatissimi, cosa invece possibilissima in pratica.

2) Agli sviluppatori piace fare marketing, ma se facessero giochi "DX9 only" andrebbero falliti: basta pensare a quanto conti la percentuale di schede DX9 sul mercato...

In sostanza, un gioco pensato per DX9 è in genere possibile farlo girare su schede DX8 o addirittura DX7, rinunciando però agli effetti grafici di ultima generazione oppure in maniera molto, ma molto lenta.

Gio&GIO
12-03-2004, 10:47
Originariamente inviato da lucio68
Ho una Radeon 9000pro, quindo dirextx 8.1 (parzialmente o totalmente non mi interessa un gran che). Qualche mese fa installando non ricordo quale gioco mi è stato richiesto di installare anche le dx 9 se no il gioco non avrebbe funzionato. Le ho installate e ho giocato a quel gioco che, a detta degli sviluppatori, necessava supporto hardware alle dx9. Per ora sono riuscito a far girare tutti i giochi dx9 che ho provato, eppure non ho supporto hardware!!! Allora mi chiedo: sono i giochi stessi che non sono codificati secondo le dx9 oppure laddove non c'è supporto hardware subentra il software?



Con le schede DX 8.1 si può giocare tranquillamente a giochi DX9 .......... l'unica "nota" è che non usufruisci di tutti gli effetti previsti.


Gio&Gio

DjLode
12-03-2004, 11:59
Originariamente inviato da pg08x
Ma chi ti paga nvidia ?


Tipico commento tuo e di chi non ha più niente da dire. Portando il discorso un pò sul tecnico e dimostrando per filo e per segno che ogni cosa che dici è falsa, tendenziosa oltre che assolutamente indimotrabile, te ne esci con queste frasi. Vai pure avanti così, io ho cercato di dirti che sbagli, ma tant'è.


ho detto e ripeto che le geforce 3 e 4 non supportano pienamente directx 8.1


Le specifiche massime non sono supportate pienamente, ma le Gf4 supportano le specifiche dx 8.1. E' italiano e assolutamente vero, se la specifica minima è PS 1.2 una scheda che supporta una versione >= dei PS 1.2 sta esattamente nelle specifiche.


le geforce fx sono directx 9 compliant eccetto per la precisione a 24bit. (di fatto ne usano 16)


Dove cacchio sta scritto che bisogna per forza supportare i 24 bit di precisione lo sai solo tu. 16-24-32 bit sono esattamente supportati, se i 16 sono il minimo vanno bene. Usano i 16 bit al posto dei 32bit di precisione per una questione di velocità, non ne usano 16 e basta. Altra affermazione tendenziosa. Oltretutto se nelle specifiche dx9 il supporto massimo è dai ai calcoli FP a 32bit, supportandone 24 (e 24 da che mondo è mondo è minore di 32), le ATI, non sarebbero full dx9 compliant secondo il tuo ragionamento. Sono parole tue, le GF4 non supportano i PS 1.4, massima versione supportata dalle DX 8.1 quindi non sono full compliant. La precisione massima dei calcoli in floating point è 32, le Radeon non le supportano, le radeon non sono full compliant. Ma tu dici il contrario. Logicamente parlando è un assurdo e ovviamente è un altra affermazione tendenziosa e falsa.


[B]gli shaders 3.0 non centrano perchè si parla di una versione ancora da venire che si chiamerà 9.1 o 9.0c[B]


Che cacchio dici? Sono supportate da Settembre 2003 nelle DX9 come specifiche. Documentati meglio.


Ma cosa mi vuoi mettere in bocca ?


Nulla, solo le cose che dici e farti notare le cose che non sai o che sai ma fingi di non sapere.


Informati meglio e buona notte

Mi spiace ma l'unico che deve informarsi su: italiano, logica dei costrutti in lingua italiana e supporti dx sei tu.

Scusa Raven ma non sopporto le persone che sparano a zero a destra e a manca dicendo cosa false e tendenziose.

DjLode
12-03-2004, 12:02
Originariamente inviato da cdimauro
Quanto alla diatriba sulle DX: supportare le DX 8.1 o 9.0 non vuol dire implementare in hardware TUTTE le specifiche dello standard. Una scheda può benissimo decidere di implementarne un sottoinsieme, ed essere comunque compliant con quella versione. Di fatti i driver comunicano alle applicazioni richiedenti quali di capacità sono dotate, e queste ultime si adeguano.

Non cdimauro, DOBBIAMO documentarci meglio :)

pg08x
12-03-2004, 12:33
Ti rispondo in toni non polemici se poi non vuol capire sono affari tuoi

Originariamente inviato da DjLode
Vabbhè e se la sconsigliava? Se tutti le sono andati dietro forse un fondo di verità c'era? O no? Disorientare gli sviluppatori? Ma che ti inventi. E' sempre stato risaputo che a livello di codice gli shaders 2.0 non erano compatibili con i vecchi, quindi si è sempre saputo che le nuove gpu avrebbero integrato gli shaders vecchi.
Usare shaders 1.4. nel 2001 2002 2003 Dato che le geforce 3 e 4 non li supportano avrebbe voluto dire costringere il directx ad andare in emulazione con le schede geforce con evidenti crolli di performance.
Nb: scrivere codice per i pixel shaders 1.4 è più semplice che studiare una sequenza di vari shaders 1.x da applicare in diverse passate ma, ripeto, questo era l'unico modo per non penalizzare troppo le schede nvidia e nessuno pensava a scrivere codice dedicato per ati in un path differente
Adesso anche le geforce fx li supportano.
Hai notato come le 8500 (schede ormai vecchie e cloccate a soli 275Mhz) con gli ultimissimi giochi riescano a diferndersi bene anche rispetto a schede dal clock di molto superiore ?


E se lo sapevo io, fidati che lo sapevano anche gli sviluppatori anche se come dici tu Nvidia li faceva fumare roba pesante per disorientarli (mi immagino Carmack che gira farfugliando "mmmmm.... shaders.... mmmm ..... 2.0 ..... mmmmmmm" ma per favore).

non mettermi in bocca parole che non ho detto e modera i toni


Se NV25 non è full dx8.1 compliant per via della mancanza dei ps 1.4, come può essere R3x0 full dx 9 compliant prevedendo questo standard i PS e i VS 3.0 nelle specifiche?

I pixel shaders 3.0 sono della versione di directx ancora da venire non certo della versione 9.0b


Mah, mistero della fede (in Ati ovvio).
Scusa ma perchè leggi roba su internet o chissà dove, metti tutto dentro ad un frullatore e spari fuori quello che ti pare a te? NV3x è dx 9 se lo è anche R300. Nvidia per ragioni sue (chi ha detto OGL 2.0 vince una birra ma a te sfugge forse che non esistono solo le Dx)


non riesco a seguire queste farneticazioni per altro pure offensive
:mad:


ha implementato due precisioni di calcolo diverse a 16 e a 32bit. Ti ricordo che la precisione minima delle dx9 sono i 16bit, chiedi a fek delucidazioni sicuramente si saprà spiegare meglio di me visto che sulle dx ci lavora, io invece ci parlo soltanto.
Che poi le FX scalino per motivi di performance da 32bit a 16bit, non vedo cosa c'entri con le dx9. Riguarderà soltanto gli sviluppatori.


Directx9 prevede 24bit di precisione, nvidia non li supporta PUNTO.
Dove ATI usa 24 bit per i calcoli in virgola mobile nvidia ne usa 16.


E qui ri-cito fek, ha detto che ora come ora è praticamente impossibile scrivere shaders che portino ad approssimazioni anche usando i 16bit, quindi la differenza non esiste (ma forse ti sfugge la differenza tra le precisioni di calcolo), o ancora oggi non c'è modo di vederla. :mad:

fex non è a mio avviso una fonte affidabile, sembra il portavoce di nvidia. Ho avuto 2 discussioni con lui.
Nella prima sosteneva che il cg non ha bisogno di continuo sviluppo da parte di nvidia perchè standard e dopo due settimane nvidia ha annunciato che non aveva + intenzione di sviluppare aggiornamenti per il cg perchè implicavano troppo lavoro a stare dietro agli standard.
Nella seconda sosteneva che in nv40 non hanno usato niente di nv30 che sono due gruppi totalmente distinti, che il flop di nv30 non ha influenzato minimamente ed altre baggianate di puro marketing.


E qui ri-cito fek, ha detto che ora come ora è praticamente impossibile scrivere shaders che portino ad approssimazioni anche usando i 16bit, quindi la differenza non esiste (ma forse ti sfugge la differenza tra le precisioni di calcolo), o ancora oggi non c'è modo di vederla.

Complimenti che te le bevi !
fino a ieri ti sei bevuto che 32 bit erano meglio di 24 http://www.nvitalia.com/articoli/anteprima_geforceFX/5.htm

poi scoperti gli altarini, vale a dire che ne usano 16. oggi ti bevi che + di 16 bit non serve a niente

personalmente quando leggo questo tecno marketing alla fek mi metto a sorridere. Questa è la descrizione dei pixel e vertex shaders "implementazione nvidia" fatta all'uscita della geforce fx 5800:

"Il passo avanti che invece introduce il GeForce FX (Shaders 2.0+) rispetto alle stesse specifiche richieste dalle DirectX 9, consiste nel fatto che questo chip implementa direttamente il supporto al formato FP32 (lunghezza di stringa di 32bit, 4 byte) e conseguentemente la precisione colore di 128bit (32bit per canale); soprattutto, estende l'adozione del calcolo in virgola mobile a tutta la pipeline Grafica del chip, generalizzando il supporto allo FP32 in particolare al "vertex processor" del CineFX engine che si evolve in un FP ARRAY, ottenendo il duplice risultato di rendere omogenea la precisione e il tipo di di calcoli su tutta la pipeline grafica e di elevarne la potenza di calcolo e flessibilità di utilizzo in maniera esponenziale.
Questa impostazione è quella che permette sostanzialmente l'introduzione di parametri tanto più elevati rispetto a quelli richiesti e permette non solo la completa implementazione delle specifiche delle DirectX 9.0, ma anche di interpretarne il modo più efficente per realizzarle, estendendone le potenzialità. "

Ma ti rendi conto di come ti prendendo continuamente in giro ?
evidentemente no :D

Maury
12-03-2004, 12:46
Dal lato marketing è un'arma nucleare in mano ad nVidia, spesso le chiacchere e le features ventilate valgono più di ogni cosa. Brutto colpo per ATI.

Murdorr
12-03-2004, 12:47
Io dico che R420 avrà PS 3.0.

Raven
12-03-2004, 13:01
Ripeto: vi ri-invito a calmarvi...

pg08x... hai torto: le geffo4 ti sono dx8.1 compliant in quanto rispettano le caratteristiche minime su PS e VS... non è OBBLIGATORIO avere i 1.4, ma basta rientrare nella serie 1.1/1.2/.1.3/1.4... chiaro?! ;)

Le dx 8.1 sono nate per AGGIUNGERE allo standard la versione 1.4 dei PS, ma NON significa che chi non li ha non è dx 8.1 compliant: per esserlo basta avere UNA delle versioni sopracitate...

dwfgerw
12-03-2004, 13:29
se riane con 8 pipes shader 2.0 per me nv40 soprassa di nuovo ati...

leoneazzurro
12-03-2004, 13:40
Ripeto: le DX9 prevedono una precisione dei PS a 16+bit, significa che il minimo è 16. Geforce FX supporta 16 e 32 (Questi ultimi con calo prestazionale) , ATI solo 24 bit. Da questo punto di vista entrambe le schede sono PIENAMENTE DX9.

DjLode
12-03-2004, 14:07
Originariamente inviato da Raven
Ripeto: vi ri-invito a calmarvi...

pg08x... hai torto: le geffo4 ti sono dx8.1 compliant in quanto rispettano le caratteristiche minime su PS e VS... non è OBBLIGATORIO avere i 1.4, ma basta rientrare nella serie 1.1/1.2/.1.3/1.4... chiaro?! ;)

Le dx 8.1 sono nate per AGGIUNGERE allo standard la versione 1.4 dei PS, ma NON significa che chi non li ha non è dx 8.1 compliant: per esserlo basta avere UNA delle versioni sopracitate...

One and...

Originariamente inviato da leoneazzurro
Ripeto: le DX9 prevedono una precisione dei PS a 16+bit, significa che il minimo è 16. Geforce FX supporta 16 e 32 (Questi ultimi con calo prestazionale) , ATI solo 24 bit. Da questo punto di vista entrambe le schede sono PIENAMENTE DX9.

....two.

Non ho altro da aggiungere. Riguardo a fek portavoce di Nvidia, anche se penso che sia in grado di difendersi da solo, ti rispondo solo che se io avessi un 30% delle sue conoscenze in questo ambito e della sua proprietà di esporle, mi sentirei già pienamente soddisfatto.
Ti consiglio di leggere i suoi post per il lato software, e per il lato hardware i post di yossarian. Ti assicuro che impareresti qualcosa. Io l'ho fatto e come ho detto più volte le cose che riporto le ho imparate da loro.
Su tutto il resto non rispondo perchè credo che non ne valga la pena.

Helstar
12-03-2004, 14:34
Bello bello ... nonostante le polemiche si impara cmq molto sulle caratteristiche tecniche ;P
Ma alla fine, quello che importa e': ci saranno o no 'sti PS3.0 su Loki ? Si puo' supporre, scommettere, discutere amabilmente come al bar, ma in realta' ... attendere prego !

Ex Tenebrae
12-03-2004, 15:06
Polemiche poco costruttive a parte, nessuno ha citato un punto fondamentale del dilemma PS 3.0 si'/no. Le features piu' interessanti che saranno introdotte nei PS 3.0, con le architetture prossime venture pare che (sottlineo, *pare* ) penalizzino fortemente le prestazioni tanto che molti sviluppatori si stanno chiedendo se valga la pena integrarle nei propri giochi. I PS 3.0 saranno solo un punto di transizione verso le specifiche PS 4.0 che saranno un vero salto generazionale, maggiore di quello intercorso fra PS 1.x e 2.0

Daytona
12-03-2004, 15:12
1-0 per DjLode:D :D :D :sofico:
Continnuate pure a scannarvi che mi diveto moltissimo:D
SCHERZO;) :p
Come dire ...(con accento svizzero): "Tutto è bene quel che finisce bene...potevate anche rimanere offesi alla trachea!!!":D :D

1100000110100000

fek
12-03-2004, 15:33
Ci sono parecchie imprecisioni in questo tuo post, provo a fare alcune precisazioni.

Originariamente inviato da pg08x
Usare shaders 1.4. nel 2001 2002 2003 Dato che le geforce 3 e 4 non li supportano avrebbe voluto dire costringere il directx ad andare in emulazione con le schede geforce con evidenti crolli di performance.


No. Se uno shader e' scritto per 1.4 e viene richiesta la sua validazione su una gpu che supporta solo 1.3 allora la validazione fallisce e lo shader non viene creato abortendo l'esecuzione. Non va mai in emulazione. In questi casi i programmatori forniscono una versione 1.3 alternativa da usare se la 1.4 fallisce.

NV25 e' full DX8.1.
Le DX8.1 non richiedono gli shader 1.4 come le DX9 non richiedono gli shader 2.0+
Tanto e' vero che pur non supportando gli shader 2.0+ l'R3X0 e' full DX9.

I pixel shaders 3.0 sono della versione di directx ancora da venire non certo della versione 9.0b

No. I PS3.0 sono perfettamente definiti e supportati dall'attuale versione: e' possibile scrivere shader 3.0 ed eseguirli in refrast perche' non c'e' hw che al momento e' in grado di eseguirli.
La prossima versione dell'SDK (non del runtime) introdurra il supporto ai PS3.0 nel compilatore HLSL che sara' in grado di produrre codice anche per questa versione.
Riassumento: le DX9 supportano pienamente i PS3.0.



Directx9 prevede 24bit di precisione, nvidia non li supporta PUNTO.
Dove ATI usa 24 bit per i calcoli in virgola mobile nvidia ne usa 16.


L'NV3X mette a disposizione precisione a 16 e 32 bit quindi e' perfettamente DX9. Che poi la precisione a 32 bit non sia usabile sempre e comunque ma a volte si debba scendere a 16 bit per questioni pratiche non cambia la cosa.


fex non è a mio avviso una fonte affidabile, sembra il portavoce di nvidia. Ho avuto 2 discussioni con lui.
Nella prima sosteneva che il cg non ha bisogno di continuo sviluppo da parte di nvidia perchè standard e dopo due settimane nvidia ha annunciato che non aveva + intenzione di sviluppare aggiornamenti per il cg perchè implicavano troppo lavoro a stare dietro agli standard.


Non ho mai affermato quello che dici. Ho detto che Cg e' un toolset e non un linguaggio e non ho intenzione di ripeterlo ulteriormente :)
Il fatto che non dica quello che vuoi sentirti dire non mi rende portavoce di NVIDIA, ne' tantomeno poco affidabile.


Nella seconda sosteneva che in nv40 non hanno usato niente di nv30 che sono due gruppi totalmente distinti, che il flop di nv30 non ha influenzato minimamente ed altre baggianate di puro marketing.

Non ho mai sostenuto che nv40 non usera' nulla di nv30, ma l'esatto contrario. Ho detto e lo ripeto che i due gruppi di progetto sono totalmente differenti come lo sono i gruppi di progetto dell'R3X0 e dell'R4X0.


poi scoperti gli altarini, vale a dire che ne usano 16. oggi ti bevi che + di 16 bit non serve a niente

Allo stato attuale delle cose 16 bit sono piu' che sufficienti nella stragrande maggioranza delle situazioni.

Mi spiace dirlo cosi' chiaramente, ma sostanzialmente tu non sai di che cosa stai parlando, ti limiti a prendere notizie su internet senza effettivamente capire che cosa vogliano dire e le spacci per vero.

Riguardo al topic, sono ragionevolmente sicuro che l'R420 supportera' i vs30/ps30.

A scanso di equivoci, l'hw di questa generazione che preferisco e' l'architettura ATI (R3X0).

Crisidelm
12-03-2004, 16:22
Come ho già scritto in un altro commento ad una news un qualche giorno fa, all'R420 dovrebbe mancare il supporto al "Dynamic Branching", che è una feature delle P.S. 3.0
http://forum.hwupgrade.it/showthread.php?s=&threadid=629520

fek
12-03-2004, 16:37
Originariamente inviato da Crisidelm
Come ho già scritto in un altro commento ad una news un qualche giorno fa, all'R420 dovrebbe mancare il supporto al "Dynamic Branching", che è una feature delle P.S. 3.0
http://forum.hwupgrade.it/showthread.php?s=&threadid=629520

Questo e' piu' plausibile e non mi stupirebbe: il dynamic branching e' pressoche' inutilizzabile anche con la prossima generazione.

pg08x
12-03-2004, 18:07
Originariamente inviato da fek
No. Se uno shader e' scritto per 1.4 e viene richiesta la sua validazione su una gpu che supporta solo 1.3 allora la validazione fallisce e lo shader non viene creato abortendo l'esecuzione. Non va mai in emulazione. In questi casi i programmatori forniscono una versione 1.3 alternativa da usare se la 1.4 fallisce.


Questo non cambia assolutamente nulla...
anzi conferma il fatto che non essendo supportati da nvidia scrivere codice per gli shaders 1.4 avrebbe costretto gli sviluppatori a fare un lavoro doppio per cui hanno trovato molto più comodo NON scrivere codice per i pixel shaders 1.4
PS: nvidia ha dichiarato fin da subito che non avrebbe supportato gli 1.4 dando così un'indicazione chiara per gli sviluppatori.
Dimenticavo, grazie per la lezioncina non richiesta e volta solo a confondere quanto già acquisito.


NV25 e' full DX8.1.
Le DX8.1 non richiedono gli shader 1.4 come le DX9 non richiedono gli shader 2.0+
Tanto e' vero che pur non supportando gli shader 2.0+ l'R3X0 e' full DX9.


lo ha già chiarito raven che le geforce4 sono directx 8.1 compatibili e non era il caso di puntualizzarlo ma full se conosci l'inglese vuol dire pienamente e questo non è così perchè directx 8.1 include gli shader 1.4 che NON vengono supportati.
In quanto sviluppatore dovresti aver familiarità con il sito dell'msdn, bene, leggili l'elenco delle caratteristiche di directx 8.1 se non mi credi.


L'NV3X mette a disposizione precisione a 16 e 32 bit quindi e' perfettamente DX9. Che poi la precisione a 32 bit non sia usabile sempre e comunque ma a volte si debba scendere a 16 bit per questioni pratiche non cambia la cosa.

Non a volte ma SEMPRE nelle applicazioni reali.
Di fatto è come se fosse limitato a 16. A questo aggiungi che non supporta i 24 come previsto dallo standard. :D


Non ho mai affermato quello che dici. Ho detto che Cg e' un toolset e non un linguaggio e non ho intenzione di ripeterlo ulteriormente :)
Il fatto che non dica quello che vuoi sentirti dire non mi rende portavoce di NVIDIA, ne' tantomeno poco affidabile.

Se vuoi andiamo a cercare tutto il thread, fosti abbastanza chiaro.


Non ho mai sostenuto che nv40 non usera' nulla di nv30, ma l'esatto contrario. Ho detto e lo ripeto che i due gruppi di progetto sono totalmente differenti come lo sono i gruppi di progetto dell'R3X0 e dell'R4X0.

Quindi finalmente affermi che i risultati (anche negativi - nb: in questo caso ci sarebbe meno da prendere) di uno possono influenzare quelli dell'altro ?


Allo stato attuale delle cose 16 bit sono piu' che sufficienti nella stragrande maggioranza delle situazioni.
Mi spiace dirlo cosi' chiaramente, ma sostanzialmente tu non sai di che cosa stai parlando, ti limiti a prendere notizie su internet senza effettivamente capire che cosa vogliano dire e le spacci per vero.

lo dici tu per il resto no comment :mad: quello che penso io di te già lo sai e non gettare discredito su chi neppure conosci.


Riguardo al topic, sono ragionevolmente sicuro che l'R420 supportera' i vs30/ps30.
A scanso di equivoci, l'hw di questa generazione che preferisco e' l'architettura ATI (R3X0).
Grazie per il contentino spero che i tuoi già citati amici di nvidia non siano troppo offesi

fek
12-03-2004, 20:06
Originariamente inviato da pg08x
Questo non cambia assolutamente nulla...
anzi conferma il fatto che non essendo supportati da nvidia scrivere codice per gli shaders 1.4 avrebbe costretto gli sviluppatori a fare un lavoro doppio per cui hanno trovato molto più comodo NON scrivere codice per i pixel shaders 1.4
PS: nvidia ha dichiarato fin da subito che non avrebbe supportato gli 1.4 dando così un'indicazione chiara per gli sviluppatori.


Giustissimo quello che dici sugli sviluppatori che non hanno supportato gli 1.4. L'appunto era sul fatto che la GF4 non fosse DX81. Lo e'.


lo ha già chiarito raven che le geforce4 sono directx 8.1 compatibili e non era il caso di puntualizzarlo ma full se conosci l'inglese vuol dire pienamente e questo non è così perchè directx 8.1 include gli shader 1.4 che NON vengono supportati.
In quanto sviluppatore dovresti aver familiarità con il sito dell'msdn, bene, leggili l'elenco delle caratteristiche di directx 8.1 se non mi credi.

Conosco il significato di full e di full compliant e la definizione di full compliant DX8.1 non richiede il supporto per l'1.4 tanto e' vero che l'R300 e' full compliant DX9 pur non supportando i ps2.0+.
Inutile ripetere le stesse cose piu' volte.


Non a volte ma SEMPRE nelle applicazioni reali.
Di fatto è come se fosse limitato a 16. A questo aggiungi che non supporta i 24 come previsto dallo standard. :D

Immagino che avrai scritto un certo numero di pixel shader di modo da poter senza ombra di dubbio giustificare il tuo "sempre".
Perche' io ti dico che non e' SEMPRE cosi' e ci sono alcune situazioni particolare e altre patologiche dove e' comodo usare 32 bit. In generale, che e' diverso da sempre, 16 bit sono piu' che abbondanti.

Lo standard dice 24 o superiori. Supporta 32 quindi e' perfettamente in standard.


Se vuoi andiamo a cercare tutto il thread, fosti abbastanza chiaro.


Si' e nonostante fossi chiaro non capisti.


Quindi finalmente affermi che i risultati (anche negativi - nb: in questo caso ci sarebbe meno da prendere) di uno possono influenzare quelli dell'altro ?

Abbiamo sempre affermato questo. Quello che abbiamo negato e' che ci fosse trasferimento ingente di personale da un team all'altro. Non e' vero perche' i due team sono fisicamente seperati e scambiano solo informazioni come in qualunque azienda.

Raven
12-03-2004, 20:22
BASTAAAA!!!

http://DIGILANDER.LIBERO.IT/arosati76/skull.gif


;)

fek
12-03-2004, 20:24
:p

pg08x
12-03-2004, 21:11
Originariamente inviato da fek
...

Abbiamo sempre affermato questo. Quello che abbiamo negato e' che ci fosse trasferimento ingente di personale da un team all'altro. Non e' vero perche' i due team sono fisicamente seperati e scambiano solo informazioni come in qualunque azienda.

non rispondo alla tua mail cavillosa raven ha giustamente detto basta.

Volevo solo fare notare a tutti una cosa...

Abbiamo sempre affermarmato... quello che abbiamo .... i due team sono fisicamente separati ... come in qualunque azienda

devo chiamarti fek oppure gente di nvidia ? ti hanno forse fatto il lavaggio del cervello ?

E qui ho davvero detto tutto :mad:
cavilli i vostri ma la sostanza non cambia.

fek
12-03-2004, 21:18
Originariamente inviato da pg08x
non rispondo alla tua mail cavillosa raven ha giustamente detto basta.

Volevo solo fare notare a tutti una cosa...

Abbiamo sempre affermarmato... quello che abbiamo .... i due team sono fisicamente separati ... come in qualunque azienda

fek non è solo a parlare !!! c'è nvidia dietro !

E qui ho davvero detto tutto :mad:
cavilli i vostri ma la sostanza non cambia.

Veramente mi riferivo anche agl'altri che si sono sforzati di farti ragionare su questo forum :D

pg08x
12-03-2004, 21:21
Originariamente inviato da fek
Veramente mi riferivo anche agl'altri che si sono sforzati di farti ragionare su questo forum :D

si bravo hai lanciato il sasso ora nascondi la mano.

Chi di tutti i lettori di questo sito oltre te (che l'hai sentito da nvidia) ha mai scritto:

"nego che ci fosse trasferimento ingente di personale da un team all'altro. I due team sono fisicamente seperati e scambiano solo informazioni come in qualunque altra azienda"

a parte di come potevi altrimenti esserne così sicuro... hai appena scritto


"Abbiamo sempre affermato questo. Quello che abbiamo negato e' che ci fosse trasferimento ingente di personale da un team all'altro. Non e' vero perche' i due team sono fisicamente seperati e scambiano solo informazioni come in qualunque azienda. "

fek
12-03-2004, 21:27
:doh:

pg08x
12-03-2004, 21:31
Originariamente inviato da fek
:doh:


vai a scrivere articoli per nvitalia, li troverai un'audience più ricettiva :D non meriti la mia attenzione

DjLode
12-03-2004, 21:50
Originariamente inviato da fek
:doh:

Lascia perdere, fai come se non fossi mai intervenuto :)

fek
12-03-2004, 21:52
Originariamente inviato da DjLode
Lascia perdere, fai come se non fossi mai intervenuto :)

Buona idea ;)
Di solito cerco di essere piu' diplomatico ma quando passo il venerdi' sera a insultare una formula che respira per farla entrare in un ps2.0, le mie arti diplomatiche vanno a farsi benedire :D

DjLode
12-03-2004, 21:57
Originariamente inviato da fek
Buona idea ;)
Di solito cerco di essere piu' diplomatico ma quando passo il venerdi' sera a insultare una formula che respira per farla entrare in un ps2.0, le mie arti diplomatiche vanno a farsi benedire :D

Lavori anche il venerdì sera? Io dovrei studiare Java ma non ne ho voglia e passerò il tempo forse forse a guardare uno dei prg che ho dovuto consegnare per sapere almeno cosa fa a grandi linee :)

pg08x
12-03-2004, 22:03
Originariamente inviato da fek
Buona idea ;)
Di solito cerco di essere piu' diplomatico ma quando passo il venerdi' sera a insultare una formula che respira per farla entrare in un ps2.0, le mie arti diplomatiche vanno a farsi benedire :D

Originariamente inviato da fek
Immagino che avrai scritto un certo numero di pixel shader di modo da poter senza ombra di dubbio giustificare il tuo "sempre".
Perche' io ti dico che...


Conosco moltissimi ottimi programmatori e nessuno di questi ha mai scritto uno shader ed ad ognuno di questi non ne potrebbe fregare de meno.

Non mi va di essere preso per i fondelli da un programmatore 3d alle prime armi che appena ha visto le sue prime convention è diventato subito un patito di nvidia.

fek
12-03-2004, 22:13
Originariamente inviato da DjLode
Lavori anche il venerdì sera? Io dovrei studiare Java ma non ne ho voglia e passerò il tempo forse forse a guardare uno dei prg che ho dovuto consegnare per sapere almeno cosa fa a grandi linee :)

Si' :|

Stiamo lavorando su una build di BW2 da presentare al Game Developer Conference fra due settimane. Periodo pesantuccio.

Hey, ho paura che pgcoso si sia incazzato ;)

DjLode
12-03-2004, 22:34
Originariamente inviato da fek
Si' :|

Stiamo lavorando su una build di BW2 da presentare al Game Developer Conference fra due settimane. Periodo pesantuccio.

Hey, ho paura che pgcoso si sia incazzato ;)

Vabbhè dai, ti auguro buon lavoro e chiudo l'OT se no poi Raven si fa il sangue cattivo (:eek: ).
A me da fastidio che la gente si incacchi, però negare l'evidenza è brutta cosa :)

nonikname
12-03-2004, 23:14
PG08x ha scritto
Conosco moltissimi ottimi programmatori e nessuno di questi ha mai scritto uno shader ed ad ognuno di questi non ne potrebbe fregare de meno.

Ma se alla fine ammetti di conoscere l'argomento solo di striscio perchè cerchi di portare avanti una idea che ti sei fatto solo "per averlo sentito dire o letto da qualche parte " ...... :mc:

Questa è una linea di condotta che porta inesorabilmente ad una strada chiusa , ammettere i propri limiti in tempo ( in questo specifico thread) serve solo a non finire in situazioni imbarazzanti , e ricordati , qui non siamo ne su NVitalia ne sulla tribuna distinti canadese , ma per discutere della materia che più ci sta a cuore , e tutti ,dal primo all'ultimo , hanno sempre qualcosa da imparare , anche John Carmack .........

Conosco moltissimi ottimi programmatori e nessuno di questi ha mai scritto uno shader ed ad ognuno di questi non ne potrebbe fregare de meno.

E non potevi scriverlo una 20a di post fa........ :doh:


http://www.galassiere.it/occhio_file/occhio.gif http://www.galassiere.it/occhio_file/occhio.gif ..........lo so che sto rischiando , ma lo faccio per far capire ad una persona in gamba come PG08x che non si fa quasi mai brutta figura dicendo " ma va , non lo sapevo , grazie...."

Raven
12-03-2004, 23:50
LAST WARNING!

Ancora 1 (UNO) post polemico, pg08x, e l'angelo della morte calerà su di te...

http://digilander.libero.it/arosati76/corvo.gif

pg08x
13-03-2004, 00:13
Originariamente inviato da Raven
LAST WARNING!

Ancora 1 (UNO) post polemico, pg08x, e l'angelo della morte calerà su di te...

http://digilander.libero.it/arosati76/corvo.gif

Apprezzo l'avviso e mamma mia... questo vuol dire essere tenuto

http://digilander.libero.it/arosati76/occhiog.jpg

d'occhio. :D

Konzen
13-03-2004, 00:25
secondo me pg08x comunque nonostante non le avesse sparate tutte giuste, ha comunque fatto notare i diversi approcci di Ati e Nvidia a questi benedetti Pixel Shader, e concordo con lui sul fatto che Ati sicuramente li ha implementati meglio, ha trovato una soluzione migliore di Nvidia, ma a livello teorico.
Infatti passa molto tempo prima che tale tecnologia venga supportata dai giochi e quindi per quando sono usciti giochi che richiedevano sti PS 1.4 anche Nvidia era pronta.
Poi parlo di Fek che credo abbia detto molte cose giuste, ed anche grazie a lui ho imparato molte cose nuove, un unico appunto, potevi risparmiarti quell'inutile sarcasmo alla fine.
Djlode a te dico solo che se non ci fosse fek non so quanto avresti scritto sul forum, anche perchè a fek sono serviti 2-3 post per chiarirsi, te invece ci sono voluti tre anni...e pure tu potevi risparmiarti l'inutile sarcasmo alla fine, non è bello infierire su chi è già stato ferito, specialmente se non si è nelle condizioni di farlo.

pg08x
13-03-2004, 00:40
Originariamente inviato da Konzen
secondo me pg08x comunque nonostante non le avesse sparate tutte giuste, ha comunque fatto notare i diversi approcci di Ati e Nvidia a questi benedetti Pixel Shader, e concordo con lui sul fatto che Ati sicuramente li ha implementati meglio, ha trovato una soluzione migliore di Nvidia, ma a livello teorico.
Infatti passa molto tempo prima che tale tecnologia venga supportata dai giochi e quindi per quando sono usciti giochi che richiedevano sti PS 1.4 anche Nvidia era pronta.
Poi parlo di Fek che credo abbia detto molte cose giuste, ed anche grazie a lui ho imparato molte cose nuove, un unico appunto, potevi risparmiarti quell'inutile sarcasmo alla fine.
Djlode a te dico solo che se non ci fosse fek non so quanto avresti scritto sul forum, anche perchè a fek sono serviti 2-3 post per chiarirsi, te invece ci sono voluti tre anni...e pure tu potevi risparmiarti l'inutile sarcasmo alla fine, non è bello infierire su chi è già stato ferito, specialmente se non si è nelle condizioni di farlo.

Grazie per la solidarietà Konzen, sei stato uno dei pochi a capire quello che realmente volevo dire ed hai dimostrato di non lasciarti influenzare dall'opinione generale per quanto questa possa sembreare attraente.

Originariamente inviato da fek
quote:
--------------------------------------------------------------------------------
Originariamente inviato da pg08x
Questo non cambia assolutamente nulla...
anzi conferma il fatto che non essendo supportati da nvidia scrivere codice per gli shaders 1.4 avrebbe costretto gli sviluppatori a fare un lavoro doppio per cui hanno trovato molto più comodo NON scrivere codice per i pixel shaders 1.4
PS: nvidia ha dichiarato fin da subito che non avrebbe supportato gli 1.4 dando così un'indicazione chiara per gli sviluppatori.

--------------------------------------------------------------------------------

Giustissimo quello che dici sugli sviluppatori che non hanno supportato gli 1.4. L'appunto era sul fatto che la GF4 non fosse DX81. Lo e'.


Chi se ne frega se le geforce4 vengono definite directx8.1 full compliant è stato solo un cavillo cui si sono attaccati fek e djlode. La cosa che mi premeva sottolineare è che non supportano gli shaders 1.4 del directx 8.1

Non supportare volutamente gli shaders 1.4 da parte di nvidia ha danneggiato ATI questo sono felice che almeno UNO lo abbia capito e credimi sono i fatti non i dettagli a contare veramente.

Anche se l'argomento principale è stato sviato appoggiandosi a cavilli vari sono contento che qualcuno non si sia lasciato influenzare... vuol dire che quanto scritto è valso a qualcosa :eek:

cdimauro
13-03-2004, 07:46
Mi spiace, ma non è un cavillo e tu hai torto marcio. Hai mai programmato con le DirectX? No? Neppure io. Ma a differenza di te ho qui davanti l'SDK della Microsoft che spiega tante cose carine: se mi fai vedere in quale documento/pagina/riga/colonna una GPU viene definita DirectX 8.1, o 9.0, o altro SE E SOLO SE supporta in hardware TUTTE le specifiche di questi standard, vengo a baciarti i piedi fino a casa.
Se non sei in grado di DIMOSTRARLO, abbi almeno la decenza di finirla col tuo atteggiamento e le tue provocazioni, dove pretendi pure di dare lezioni a chi, come fek, su questo campo ci lavora e non ha bisogno di dimostrare né a me né a te le sue conoscenze, perché parlano/parleranno i fatti.
Se hai delle motivazioni TECNICHE e DIMOSTRABILI su tutto ciò che hai scritto, ben vengano. Se hai intenzione soltanto di gettare letame su nVidia con delle inutili polemiche, allora ti consiglio di spostarti nella sezione Off-Topic.
A me piacciano le discussioni serie e in cui si parla di fatti, di argomentazioni valide e documentabili, e vorrei che questo thread continuasse in questa direzione. Se è lecito chiederlo.

R@nda
13-03-2004, 10:38
Aggiungo solo che da quel che conosco io Fek sul web sono almeno 5 anni che è preso con la programmazione di giochi 3D.
Non direi che è alle prime armi:)

E non si intende solo di programmazione su PC (visto che si scornava anche su Alternative Reality)bei tempi:D

pg08x
13-03-2004, 10:53
Originariamente inviato da cdimauro
Mi spiace, ma non è un cavillo e tu hai torto marcio. Hai mai programmato con le DirectX? No? Neppure io. Ma a differenza di te ho qui davanti l'SDK della Microsoft che spiega tante cose carine: se mi fai vedere in quale documento/pagina/riga/colonna una GPU viene definita DirectX 8.1, o 9.0, o altro SE E SOLO SE supporta in hardware TUTTE le specifiche di questi standard, vengo a baciarti i piedi fino a casa.
Se non sei in grado di DIMOSTRARLO, abbi almeno la decenza di finirla col tuo atteggiamento e le tue provocazioni, dove pretendi pure di dare lezioni a chi, come fek, su questo campo ci lavora e non ha bisogno di dimostrare né a me né a te le sue conoscenze, perché parlano/parleranno i fatti.
Se hai delle motivazioni TECNICHE e DIMOSTRABILI su tutto ciò che hai scritto, ben vengano. Se hai intenzione soltanto di gettare letame su nVidia con delle inutili polemiche, allora ti consiglio di spostarti nella sezione Off-Topic.
A me piacciano le discussioni serie e in cui si parla di fatti, di argomentazioni valide e documentabili, e vorrei che questo thread continuasse in questa direzione. Se è lecito chiederlo.

OK. Una scheda è directX 8.1 FULL COMPLIANT anche se non supporta i pixel shader 1.4 (ed il directx 8.1 introduceva gli 1.2, 1.3 e soprattutto 1.4).
Ma è solo una questione di nomenclatura, di convenzione perchè NONOSTANTE QUESTO LE GEFORCE4 CONTINUANO A NON SUPPORTARE I PIXEL SHADER 1.4
E non supportare i pixel shader 1.4 voleva dire dover fare più passate e come ho già detto più e più volte questo ha danneggiato ATI che prevedeva gli shader 1.4 fin dai tempi delle radeon 8500 ma che nessun sviluppatore ha voluto implementare per non scrivere codice incompatibile con nvidia che volutamente non ha adottato questa feature.

DirectX 9 prevedeva 16 e 24 bit di precisione negli shaders
OK. Una scheda è directX 9 FULL COMPLIANT anche se non supporta la precisione a 16 o a 24bit.
Ati non supporta i 16 e fa tutti i calcoli floating point a 24 bit.
Nvidia supporta i 16 ed i 32 ma di fatto il 32bit è troppo lento quindi avremo ad esempio doom3 con gli shaders calcolati a 24 bit su r300 ed a 16bit su nv30.

Poi puoi anche chiamarle directX 999 compliant ma la differenza RIMANE.
E gente come fex o come diavolo si chiama farebbe bene a non confondere i fatti con il tecnicismo dei suoi shaders
(ma poi di altre cose? sa programmare solo shaders quello ?)

Sbiriguda
13-03-2004, 11:07
Ricordo che se ne parlava quando uscirono le gf4.
Con tutto il rispetto per gli intevenuti, se un gioco è programmato con ps 1.4 non gira sulle geforce4.
Ergo è incompatibile

Poi si possono fare tutte le chiacchiere che si vogliono, personalmente faccio autonomamente le mie valutazioni e non mi basta un bollino appiccicato su una scatola per bearmi della piena compatibilità della mia scheda.
Anand analizzo la questione a suo tempo, e risultò chiaro, almeno a me, la sola portata pubblicitaria di far rientrare le gf4 tra il directx 8.1 compliant.

Dopodichè se vogliamo dire che nvidia con gf4 fu pienamente dx 8.1 compatibile perchè c'è scritto sulla scatola o perchè microsoft aveva bisogno dei chip per xbox a me sta anche bene, ma rimane, per quanto mi riguarda, il mio personale metro di giudizio: gira? è compatibile
non gira? non è compatibile

Punto.

La libertà è bella perchè uno è libero anche di farsi prendere in giro se vuole :)

DjLode
13-03-2004, 14:25
Originariamente inviato da Konzen
Djlode a te dico solo che se non ci fosse fek non so quanto avresti scritto sul forum, anche perchè a fek sono serviti 2-3 post per chiarirsi, te invece ci sono voluti tre anni...e pure tu potevi risparmiarti l'inutile sarcasmo alla fine, non è bello infierire su chi è già stato ferito, specialmente se non si è nelle condizioni di farlo.

Eh già, io posto soltanto perchè posta fek che è il mio angelo custode :)
A parte il fatto che io ho spiegato tutto fin dal primo post, se poi la persona a cui ho riferito il post non percepisce... la colpa non è mia. Tutto quello che ho scritto è lì, pronto ad essere ribatutto, io al contrario di qualcuno non ho bisogno di nessuno che mi difenda, ammetto la mia ignoranza, cito le fonti e parlo solo di cose che conosco. Ribatti pure quello che ho detto, se no eventuali giudizi sulle cose scritte, per favore tienteli :)

pg08x
13-03-2004, 15:07
Originariamente inviato da pg08x
Per essere DirectX 8.1 full compliant una scheda deve supportare pixel shaders 1.2 e 1.3 e 1.4


Originariamente inviato da fek
NV25 e' full DX8.1.
Le DX8.1 non richiedono gli shader 1.4 come le DX9 non richiedono gli shader 2.0+

Originariamente inviato da fek
Hey, ho paura che pgcoso si sia incazzato ;)

Originariamente inviato da cdimauro
Mi spiace, ma non è un cavillo e tu hai torto marcio. Hai mai programmato con le DirectX? No? Neppure io. Ma a differenza di te ho qui davanti l'SDK della Microsoft che spiega tante cose carine: se mi fai vedere in quale documento/pagina/riga/colonna una GPU viene definita DirectX 8.1, o 9.0, o altro SE E SOLO SE supporta in hardware TUTTE le specifiche di questi standard, vengo a baciarti i piedi fino a casa.
Se non sei in grado di DIMOSTRARLO, abbi almeno la decenza di finirla col tuo atteggiamento e le tue provocazioni

Caro cdmauro, qui non si parlava una scheda directx 8.1 come può essere la geforce 4 ma bensì di essere full directx 8.1 vale a dire di supportalo in pieno

da quando fex ha postato "NV25 e' full DX8.1." si sono scatenati tutti i flame contro di me.
Ma fex vi ha detto perchè ? Ipse Dixit ? nessuna spigazione un secco no e giù di flame. COMPLIMENTI.
Bene, hai citato il Software Development Kit del DirectX 8.1 io ho sostengo che

o tu, fek, o cdmauro mi fate vedere in quale documento/pagina/riga/colonna dell'SDK
si dice come possa una scheda che non supporta i pixel shader 1.4 (caratteristica principale del directx 8.1) al tempo stesso supportare tutte e pienamente[B] le caratteristiche del directx 8.1 (che sono pixel shader 1,2 1,3 ed 1,4) oppure penso, e come me lo penseranno anche gli altri lettori, che mi dovete delle scuse.


[B]Originariamente inviato da fek
Le DX8.1 non richiedono gli shader 1.4 come le DX9 non richiedono gli shader 2.0+ Tanto e' vero che pur non supportando gli shader 2.0+ l'R3X0 e' full DX9.


fex fammi vedere in quale riga colonna pagina si parla degli shader 2.0+ come di una caratteristica del directx 9.0 di Microsoft

shader 2.0+ è la dicitura commerciale che dava nvidia ai suoi pixel shader ai tempi delle geforce 5800 mentre gli shaders 1.4 sono parte integrante del directx 8.1


Io ho citato Microsoft
http://msdn.microsoft.com/archive/default.asp?url=/archive/en-us/dx81_c/directx_cpp/intro/dx8whatsnew.asp

New Features in DirectX Graphics
Expanded pixel shader functionality with new version 1.2, 1.3, and 1.4.


fek confonde Microsoft con nvitalia

http://www.nvitalia.com/articoli/anteprima_geforceFX/5.htm

L'avanzamento fondamentale che introducono le DirectX 9 (Shaders 2.0) rispetto alle DX 8.1 (Shader 1.4), oltre ad un allargamento e potenzialmento delle caratteristiche dei Vertex shaders, è il supporto nativo in hardware per i Pixel Shaders del calcolo in virgola mobile, e quindi l'adozione per i calcoli del colore del formato dei dati chiamato FP24 (Floating point con lunghezza di stringa di 24bit), e conseguentemente il supporto alla precisione colore a 96bit.

Il passo avanti che invece introduce il GeForce FX (Shaders 2.0+) rispetto alle stesse specifiche richieste dalle DirectX 9, consiste nel fatto che questo chip implementa direttamente il supporto al formato FP32 (lunghezza di stringa di 32bit, 4 byte) e conseguentemente la precisione colore di 128bit (32bit per canale);

Raven
13-03-2004, 16:25
pg08x, sei sospeso 3gg...

e non tanto per il merito del discorso in sé, quanto per il fatto di aver ignorato i miei precedenti interventi, continuando la strada della polemica...

DjLode
13-03-2004, 16:31
Originariamente inviato da pg08x
o tu, fek, o cdmauro mi fate vedere in quale documento/pagina/riga/colonna dell'SDK
si dice come possa una scheda che non supporta i pixel shader 1.4 (caratteristica principale del directx 8.1) al tempo stesso supportare [B]tutte e pienamente[B] le caratteristiche del directx 8.1 (che sono pixel shader 1,2 1,3 ed 1,4) oppure penso, e come me lo penseranno anche gli altri lettori, che mi dovete delle scuse.


Perchè non ci fai vedere TU invece dove c'è scritto che per essere Full Dx 8.1 Compliant bisogna supportarli per forza tutti. Perchè io non leggo assolutamente niente del genere :)
C'è scritto che le Dx 8.1 comprendono quelle versioni di PS e come tale una scheda che supporta al minimo la versione 1.2 è Full Dx 8.1 Compliant. La stai facendo tanto lunga, non ce la fai proprio a dire di avere torno ne? :)

Raven
13-03-2004, 16:48
Originariamente inviato da DjLode
Perchè non ci fai vedere TU invece dove c'è scritto che per essere Full Dx 8.1 Compliant bisogna supportarli per forza tutti. Perchè io non leggo assolutamente niente del genere :)
C'è scritto che le Dx 8.1 comprendono quelle versioni di PS e come tale una scheda che supporta al minimo la versione 1.2 è Full Dx 8.1 Compliant. La stai facendo tanto lunga, non ce la fai proprio a dire di avere torno ne? :)

Invito anche tutti i "diretti interessati" a non insistere oltre e a ritornare "In Topic"...

Athlon 64 3000+
13-03-2004, 18:50
qui si parla dell'R420 e del non suo supporto agli Shader 3.0.Lasciate stare le differenza tra la 8500 e le Geforce4 Ti e la lora presunta compatibilità dx 8.1 perchè così siete andati off-topic.

cdimauro
14-03-2004, 06:51
L'R420, anche se non supporterà TUTTE le caratteristiche dei PS 3.0, sarà comunque full DirectX 9. Punto.
Per quanto mi riguarda, Ati farebbe una cappellata a non seguire questa strada, perché lascere a nVidia ampio spazio per pubblicizzare questa cosa. Punto.
Mi auguro che, a prescidere da tutto, NV40 e R420 siano egualmente potenti, in modo da riportare una situazione di equilibro nel mercato, con una sana concorrenza, nella speranza che i nostri portafogli non debbano continuare a piangere quando c'è da comprare una scheda grafica. Punto.

nonikname
15-03-2004, 16:41
E' sempre lui , il mitico The Inqiurer (http://www.theinquirer.net/?article=14739) che senza rivelarne la fonte , afferma che : "......noi , possiamo rivelarvi che
l'R420 avrà da un minimo di 12 a un massimo di 16 pipeline ........avrà 6 unità di vertex shaders
e il core sarà molto più veloce del R360 (500-600Mhz) , con conseguente aumento del mistero che aleggia attorno alla nuova VPU" ....

http://www.xbitlabs.com/images/news/2003-09/ati_viper.jpg

Non avrei mai immaginato che , le specifiche dei 2 nuovi "spara-poligoni(con pelle)" , sarebbero rimaste nascoste quasi fino al lancio effettivo , senza che ne trapelasse quasi nulla ... :(

Nella maggiorparte dei casi ci sono solo rumors , quindi tutto quello che finora è stato scritto , detto e discusso può rivelarsi FUMO e nulla più....

E l'attesa aumenta........... :muro:

xpiuma
22-03-2004, 18:08
Quell'immagine è un fake di sicuro!!!

Dove cavolo lo metti il dissipatore lì?? Con anche un bellisimo condensatore di fianco!!
Mah!

Comunque vedremo se R4xx supporterà i PS 3 o no...
Da quello che sappiamo con certezza magari non li supporta neanche nVidia...

Poi è stato detto che non "supporterebbero" solo il dynamic braching (non so cosa sia :p ma penso un sistema per il controllo dinamico dei salti) e che qesto non potrebbe venir usato per un'altra generazione di schede, quindi inutile...