PDA

View Full Version : nVidia NV35 verrà presentata all'E3?


Redazione di Hardware Upg
07-04-2003, 09:57
Link alla notizia: http://news.hwupgrade.it/9701.html

Questa l'ultima indiscrezione sulla nuova generazione di chip nVidia, destinata a sostituire le schede GeForce FX 5800

Click sul link per visualizzare la notizia.

Wonder
07-04-2003, 10:20
Sempre che nVIdia non porti un presample di una prescheda di un preNV35 sottocloccato con una preventola semidefinitiva che fa un rumore di decibel non definiti.
Chi vivrà vedrà..anche se nella news il buon Corsini dà già per scontato che NV35 riporterà lo scettro a nVidia. Forse lui sa cose che noi non sappiamo. Forse ATi non farà più R400?

DoomIII
07-04-2003, 10:35
Non è che all'E3 Ati si sveglia alla mattina il giorno prima e dice: ma si... in queste 2 orette di tempo faccio l'R400 e lo presento all'E3...
quindi è abbastanza scontato che la presentazione all'E3 del NV35 faccia un po di chiarezza... perchè rispetto alla news non sono affatto d'accordo e non è vero che attualmente il presunto scettro sia detenuto da Ati.

Ad ogni modo come ho già detto in altri post da Maggio se ne vedranno delle belle da parte di nVidia... :cool:

per adesso se gli Atisti sono contenti possono anche godersi qualche fps in più in test insignificanti e continuare a postare insulsi insulti vari e battute scontate e fotocopiate ormai in tutti i thread... :rolleyes:
certo se utilizzassero il tempo per informarsi un pochettino più concretamente invece che basare le loro tesi su qualche insulso grafico...

Scezzy
07-04-2003, 10:38
la stessa cosa che si vide con AMD e INTEL in passato. Intel stradominava nel mercato (Nvidia = GERORCE 1,2,3). Poi arriva AMD e per un bel pezzo diventa la padrona (ATI = 9700, 9800). Arriviamo ai giorni nostri... dove i due produttori sono ad un testa a testa. Probabilmente Nvidia ha la stessa potenza economica di intel (in proporzione) e questo la riportera' velocemente ad essere competitiva.

Minax79
07-04-2003, 10:46
Se per te test insignificanti sono poter giocare senza perdite paurose di frame con i filtri attivati ...

Aryan
07-04-2003, 11:00
Si sta avverando la mia previsione: nVidia tranne un picolo numero di NV30 per collezionisti passerà direttamente a NV35.

saltamine
07-04-2003, 11:10
Dai... piantamola con questa inutile guerra ATi vs Nvidia! Se per ogni minima cazzata di news deve scoppiare un putiferio,quasi quasi è meglio che queste news non vengano pubblicate...

barabba73
07-04-2003, 11:32
Comunque l'osservazione di Wonder è corretta: il buon Corsini da come scontato lo scettro a nvidia...qualche info che non può darci per accordi di riservatezza? Oppure è solo una supposizione ? che però un giornalista non dovrebbe fare o almeno dovrebbe evidenziare come tale. Si vedrà !

Raven
07-04-2003, 11:33
Originally posted by "DoomIII"


per adesso se gli Atisti sono contenti possono anche godersi qualche fps in più in test insignificanti e continuare a postare insulsi insulti vari e battute scontate e fotocopiate ormai in tutti i thread... :rolleyes:
certo se utilizzassero il tempo per informarsi un pochettino più concretamente invece che basare le loro tesi su qualche insulso grafico...

... :rolleyes:

E' grazie a commenti come i tuoi che dopo ci si scanna sul forum!

Jaguarrrr
07-04-2003, 11:35
1) X Scezzy: non puoi confrontare NVidia/Ati con Intel/AMD. SONO DUE STORIE COMPLETAMENTE DIVERSE !!!

2) X Wonder: R400 uscirà non prima di NATALE !!!

3) Ma secondo voi veramente Ati e NVidia farebbero uscire i loro prodotti di punta in contemporanea ?!?!?! Si maciullerebbero le gambe da sole.

4) Il fato ha voluto che NVidia, puntando sui 0.13 abbia avuto la fregatura che il processo 0.13 è una merda, e ATI si è ritrovata una VPU con prestazioni migliori. E' solo un mix tra bravura di ATI, sfiga di NVidia.

5) ATI sapete perchè non ha fatto lo stesso errore di NVidia ?!?!?! Perchè NVidia è stata la prima a voler passare a 0.13, ha investito ed è rimasta fregata.
Mentre ATI rimaneva a guardare...
E purtroppo ha visto che i 0.13 non andavano bene e ha fatto la 9700 a 0.15...

Adesso il salto a NV35 è inesorabile per NVidia e vi posso assicurare che sarà una bomba di scheda.

Io avevo
- Creative GeForce2 GTS
poi
- Hercules Radeon 8500LE
adesso
- Creative GeForce4 Ti4600 (una meraviglia con delle BGA che arrivano a 750 MHz !!!)

L'ho comprata a novembre (300€, era la più veloce allora) e non vi nego che anche se sarei curioso di avere una 9700/9800 so che se aspetto la NV35...
CI SARA' DA DIVERTIRSI !!!!!!!!!!

PURTROPPO, COME AL SOLITO, TUTTA QUESTA FOGA AD ACCAPARRARSI UNA 9500 DA MODDARE O UNA 9700 CON PREZZI BUONI SARA' SPAZZATA, TRA MASSIMO 3 MESI, DA UNA STUPENDA USCITA DELLE NV35.

Non lo dico per faziosità ma solo per ricordare che una scheda video oramai dura 4 mesi...

Vi rendete conto che la 4600 comprata a novembre ?!?!?!

CIAUZZZZZZZZZZZZZZZZZZZZZZZZZZZZZZZZZZZZZZZZZ

^TiGeRShArK^
07-04-2003, 11:37
se c'è sempre gente come doom3 ke nega l'evidenza..... ma dico io almeno un pò di onestà...nvidia ha fatto un flop pazzesco con nv30, speriamo ke nv35 almeno sia veramente 1 passo avanti, così tutto ciò verrà solo a vantaggio nostro.... ma da qui a mettersi a difendere a spada tratta nvidia dicendo ke ancora tutt'oggi detiene lo scettro di scheda + veloce mi pare che ce ne passi....

cmq, riguardo alla news, dovremo sempre considerare il tempo che passa tra la presentazione di un prodotto e l'effettiva presenza sugli scaffali... se fa come nv30 che da novembre siamo ormai arrivati ad aprile e solo ora sta iniziando ad arrivare da qlke rivenditore.... mi sa ke nn la vedremo prima di settembre (ad essere ottimisti...)

^TiGeRShArK^
07-04-2003, 11:41
A novembre la + veloce era la 4600? mi sa ke al momento nn eri molto informato su una certa scheda ke si chiama radeon 9700 pro.....
cmq se ti fa piacere ora aspetta pure nv35, nessuno te lo vieta.... contento tu! :)

Gundam766
07-04-2003, 11:42
Doom III... no per alimentare flames, ma quì si esagera pesantemente!

C'è poco da discutere... tutte le schede ATI presentate della famiglia 9700 sono presenti sugli scaffali da parecchi mesi (e chi le voleva se le è comprate)... le schede FX Nvidia no.

Come la mettiamo? Che ci si fa con una scheda che "sulla carta" è "meglio" quando poi non la puoi usare?

Tralasciando il fatto poi che la FXPro (ultimo gioiello Nvidia è stata oggetto di parecchie critiche (e non solo da parte degli ATIsti, come li chiami tu, ma anche da possessori Nvidia di vecchia data)...

Te ne elenco alcune:

1) E' stata aspettata per troppo tempo dal tempo della presentazione, e sotto molti punti di vista è stata "deludente" (vedi sotto)

2) spesso le prende da una "vecchia di 6 mesi" qual'è la 9700Pro quando si attivano tutti i filtri, (bench docet, e sarebbe interessante vedere con una 9800Pro, o con quello che uscirà verso maggio....)

3) fa un casino bestiale grazie a quel dissipatorino che monta (e sui dB siamo tutti d'accordo credo)

4) Ti occupa il primo slot PCI (mah, tutto sommato mi sembra il male minore no? Però...)

5) Non è molto clokkabile visto che fondamentalmente lo è già di suo... (scelta commerciale comprensibile, ma molto discutibile)

6) e la qualità video? Ed il costo?

Dai... siamo obbiettivi almeno una volta! Lo scettro ATI se lo è meritata, e le prestazioni in rapporto con le vendite ne sono una prova

Chico

P.S. hai detto bene... forse "da maggio" se ne vedranno delle belle (e ribadisco il FORSE, visto che finchè non vedo la scheda non mi fido... FX docet)... ma intanto da Settembre 2002 gli ATIsti si godono una scheda mostruosa!

P.P.S. e non ti venisse in mente di dire che sono PRO ATI, visto e considerato che ho una Matrox! :D

P.P.P.S. RAVEN giuro che non posto più nulla su questo argomento. (PERDONO :o )

nonikname
07-04-2003, 11:54
Lo sbaglio di nvidia NV30 lo abbiamo capito tutti ormai :bus di memoria 128 (4x32)che limita parecchio le grandi capacità del chip ,ricordiamoci che è un progetto riscritto da zero ed è fatto per le directx9+ con grande programmabilità di vertex e pixel shaders e tutto con un controllo di colore e precisione in virgola mobile passando il tutto al processo produttivo 0.13. La compagnia di St Clara pressata dall'uscita della 9700p di ATI che prevedeva gia' il supporto alle directx 9 ha dovuto mettere sul mercato un prodotto non ottimizzato e sicuramente poco competitivo (con quella kazzo di ventola a centrifuga che fa un casino infernale) solo per riuscire a tenersi lo scettro di scheda piu veloce.
Nessuno sa quando uscirà sta benedetta NV35 ma ottimizzando il processo produttivo del core (vedi IBM) con un bus a 256bit e memoria DDR1 (e supporto alle DDR2) secondo me vedremo una grande scheda e tutto a vantaggio di noi utenti affamati di prestazioni e qualità , che poi sia ATI o S3 o SIS chi ci guadagna è sempre il consumatore attento ,quello che compra la scheda giusta per le sue necessità e per le sue tasche!!

jjs
07-04-2003, 12:14
Se la notizia fosse confermata ufficialmente, ci troveremmo di fronte ad uno scocciante precedente, che potrebbe cambiare gli equilibri dell'industria videoludica. Stando a quanto riferito da Spong, un sito che si occupa di videogiochi, la Valve avrebbe stretto un accordo con la produttrice delle schede GeForce secondo il quale il nuovo episodio delle avventure di Gordon Freeman sarebbe disponibile solo per i possessori di schede nVidia.
La dichiarazione arriva direttamente da fonti interne alla nVidia medesima, che rincarano la dose affermando che questo sarà solo il primo di una lunga serie di accordi in esclusiva di questo tipo. «Assisterete ad un radicale cambiamento nell'industria dei giochi per PC nei prossimi mesi, con la prima serie di annunci all'E3; non si parlerà più di giochi per PC, ma di giochi per nVidia o ATi, come si fa già adesso per Sony e Nintendo». Un annuncio che, alle mie orecchie, suona più che altro come una minaccia...
Inutile dire che una simile notizia, qualora si rivelasse vera (e non c'è motivo, purtroppo, per cui non debba esserlo), costituirebbe un grosso passo indietro nell'industria, altro che "radicale cambiamento". La forza dei PC sta proprio nella loro modularità, e creare discriminanti sulla base di un componente che viene installato al suo interno non fa altro che rinnegare questa "elasticità". Così a caldo mi frullano per la testa più o meno duemila problemi legati a questa decisione. I computer OEM comprati in negozio, per esempio: quanta gente saprà che, acquistando una macchina fatta e finita, si "condanna" automaticamente a giocare alcuni titoli e non altri? E ancora: quanti "emulatori" di GeForce per schede ATi (e viceversa) usciranno nei prossimi mesi? E se la mia scheda madre dà problemi di incompatibilità con la GeForce 4 e fossi costretto a mettere una ATi? Per questo devo rinunciare a dei giochi?
Non so, tutto ciò mi sa di discriminatorio, una brutta strategia commerciale che tende ad escludere, "emarginare" chi fa scelte diverse, e non è certo una bella cosa...

yossarian
07-04-2003, 12:35
Originally posted by "DoomIII"

Non è che all'E3 Ati si sveglia alla mattina il giorno prima e dice: ma si... in queste 2 orette di tempo faccio l'R400 e lo presento all'E3...
quindi è abbastanza scontato che la presentazione all'E3 del NV35 faccia un po di chiarezza... perchè rispetto alla news non sono affatto d'accordo e non è vero che attualmente il presunto scettro sia detenuto da Ati.

Ad ogni modo come ho già detto in altri post da Maggio se ne vedranno delle belle da parte di nVidia... :cool:

per adesso se gli Atisti sono contenti possono anche godersi qualche fps in più in test insignificanti e continuare a postare insulsi insulti vari e battute scontate e fotocopiate ormai in tutti i thread... :rolleyes:
certo se utilizzassero il tempo per informarsi un pochettino più concretamente invece che basare le loro tesi su qualche insulso grafico...

Tipico esempio di fondamentalismo informatico :mc:

Fatti, non pugnette

:D

yossarian
07-04-2003, 12:40
Originally posted by "jjs"

Se la notizia fosse confermata ufficialmente, ci troveremmo di fronte ad uno scocciante precedente, che potrebbe cambiare gli equilibri dell'industria videoludica. Stando a quanto riferito da Spong, un sito che si occupa di videogiochi, la Valve avrebbe stretto un accordo con la produttrice delle schede GeForce secondo il quale il nuovo episodio delle avventure di Gordon Freeman sarebbe disponibile solo per i possessori di schede nVidia.
La dichiarazione arriva direttamente da fonti interne alla nVidia medesima, che rincarano la dose affermando che questo sarà solo il primo di una lunga serie di accordi in esclusiva di questo tipo. «Assisterete ad un radicale cambiamento nell'industria dei giochi per PC nei prossimi mesi, con la prima serie di annunci all'E3; non si parlerà più di giochi per PC, ma di giochi per nVidia o ATi, come si fa già adesso per Sony e Nintendo». Un annuncio che, alle mie orecchie, suona più che altro come una minaccia...
Inutile dire che una simile notizia, qualora si rivelasse vera (e non c'è motivo, purtroppo, per cui non debba esserlo), costituirebbe un grosso passo indietro nell'industria, altro che "radicale cambiamento". La forza dei PC sta proprio nella loro modularità, e creare discriminanti sulla base di un componente che viene installato al suo interno non fa altro che rinnegare questa "elasticità". Così a caldo mi frullano per la testa più o meno duemila problemi legati a questa decisione. I computer OEM comprati in negozio, per esempio: quanta gente saprà che, acquistando una macchina fatta e finita, si "condanna" automaticamente a giocare alcuni titoli e non altri? E ancora: quanti "emulatori" di GeForce per schede ATi (e viceversa) usciranno nei prossimi mesi? E se la mia scheda madre dà problemi di incompatibilità con la GeForce 4 e fossi costretto a mettere una ATi? Per questo devo rinunciare a dei giochi?
Non so, tutto ciò mi sa di discriminatorio, una brutta strategia commerciale che tende ad escludere, "emarginare" chi fa scelte diverse, e non è certo una bella cosa...



Purtroppo quanto dici era già evidente da qualche tempo. D'accordo con te sul fatto che si tratterà, se veramente si dovesse arrivare alla situazione da te prospettata, di un notevole passo indietro (anche dal punto di vista tecnologico). Vuol dire che ciascuno dei produttori di SW che deciderà di far uscire titoli ottimizzati pwer un solo tipo di HW si precluderà, già in partenza, almeno la metà del mercato potenziale.

DoomIII
07-04-2003, 12:47
Originally posted by "^TiGeRShArK^"

se c'è sempre gente come doom3 ke nega l'evidenza..... ma dico io almeno un pò di onestà...nvidia ha fatto un flop pazzesco con nv30, speriamo ke nv35 almeno sia veramente 1 passo avanti, così tutto ciò verrà solo a vantaggio nostro.... ma da qui a mettersi a difendere a spada tratta nvidia dicendo ke ancora tutt'oggi detiene lo scettro di scheda + veloce mi pare che ce ne passi....
....
....

rispondo quotando te... ma sono risposte generali ;)

intanto il flop non è che sia proprio pazzesco come volete far credere... dei problemi se ne è parlato e nessuno li nega.
l'onestà e tutt'altra cosa... ci sono 2 macchine e tante gare per vedere chi ha la velocità massima, chi l'accellerazione, chi arriva prima in salita, chi in discesa ecc... ecc...
il software attuale è inutile farlo girare su NV30... ci sono notevoli innovazioni e non ha senso pretendere di giudicare l'NV30 valutando come ci gira del software che a mala pena sa solo parzialmente cosa sia uno shader...

se nVidia voleva fare una scheda per far girare meglio il software vecchio la faceva... io gli do onore di aver investito in nuove soluzioni piuttosto che in vecchie ottimizzazioni.


poi voi Atisti (discorso generico) smettetela con questa arroganza... adesso siete qui ad inveire perchè viene detto che se all'E3 viene presentato NV35 nVidia torna prima... e questo non vi sta bene perchè non siete consumatori interessati ai prodotti ma tifosi...

a che gioco è che volete giocare o rigiocare aumentando dettagli, risoluzione ecc....? dal mio punto di vista spendere tanti soldi per questo non è fruttevole... poi se uno può permetterselo tanto meglio... ma in questo momento come ho già detto per chi non ne ha assoluta necessità non mi sembra sia intelligente cambiare scheda video... ovviamente poi ognuno è giusto abbia le sue esigenze...

Il software sta andando avanti a rilento e siamo lontani da motori grafici che sfruttino le reali potenzialità dei prodotti... e le fixed function regnano ancora sovrane... e dal mio punto di vista nVidia potrebbe togliere totalmente il supporto al T&L così Ati è contenta di fare i suoi 300fps con software obsoleto e su nVidia sarebbe giusto che certo software insulso nemmeno ci giri più... perchè quello che mi fa incavolare è spendere soldi per dell'hardware che poi non viene sfruttato... che senso ha?
come le Gef3 con i circuiti NV15 inclusi per compatibilità (shader e fixed fuction cioè T&L non sono compatibili)... abbiamo avuto software su software che ancora adesso c'è... basta vedere unreal ed il suo motore grafico fixed-function oriented ad oggi che ci sono schede DX9 ed il T&L dovrebbe essere roba vecchia... ritornando a quello che dicevo abbiamo avuto titoli bugiardi che ingannavano molti poichè erano giochi DX8... peccato che di DX8 non ci fosse nulla poichè DX8 non significa shader visto che si può programmare DX8 usando gli shader oppure le fixed function (e quindi in pratica e come se si programmasse DX7)
in seguito (Geforce4) si sono visti alcuni titoletti che sfruttano solo marginalmente gli shader per dare qualche tocco in più qua e la ma il motore resta sempre concepito come fixed function...
questo tipo di software non sfrutta una Gef4... figuriamo il senso che può avere farlo girare su schede con estensioni DX9...

questo è ovviamente quello che penso io... onore ad Ati l'ho già dato in altri post e penso di essere obiettivo... non ho negato i problemi nVidia ne negato l'onore e i miglioramente fatti da Ati... ma dopo tutto questo tempo che in vari forum i tifosi Ati continuano ad inveire ho rivisto le mie posizioni in virtù del tipo di utenza che Ati generalmente ha... ovviamente non tutti sono così e nessuno si senta tirato in causa... ;) ma non se ne può davvero più che per ogni notizia di nVidia ci siano gli Atiisti che sfottono o che si lamentano perchè non viene detto che nVidia fa schifo ed Ati è il massimo.

NV30 fa casino e scalda un sacco? va bene... si è capito... lo trovo senz'altro pure io un problema... ma dopo che lo avete detto 20000 volte dateci un taglio... ed aggiungo ancora una cosa che per quanto riguarda i test... non mi sembra che le differenze siano tali per le quali se uno spende tutti quei soldini che costa un N30 poi gioca da schifo ed il gioco gli scatta... ed inoltre come ho già ricordato accennando anche al perchè... driver nuovi miglioreranno di molto la situazione...

Saluti, peace&love :cool:

[JaMM]
07-04-2003, 13:12
la situazione non è bella come viene dipinta da voi... indubbiamente nv35 sarà una gran scheda; non scalderà più di tanto perchè essendo il core prodotto da IBM verranno implementate tutte le tecnologie che non è stata in grado di adoperare TSMC, ossia il Silicon On Insulator ed i Dielectrics... sarà potente per l'elevata bandwidth e con frequenze più umane il che significa niente turbina... temo tuttavia che i settori medio e basso del settore resteranno invariati; la scheda di punta non produce la maggioranza dei guadagni di una azienda e fa solo da traino alle schede mid e low end... in quel settore nVidia non è competitiva: chi metterebbe una 5600 nel case...? Se nVidia non fa qualcosa anche lì le prenderà pesantemente dalle 9600 e 9200 di ATi...

ultimate_sayan
07-04-2003, 13:21
Personalmente parlando di Atisti e Nvisti (o come li volete chiamare) mi sembra di tornare all'elementari, quando i bambini si sfottevano così... e di bambini se ne sentono tanti (da una parte e dall'altra). Parlando di cose più interessanti, bisogna considerare che è ovvio che un prodotto che esce qualche mese dopo rispetto ad un altro dovrebbe assicurare prestazioni e qualche innovazione in più... e fino a qui siamo tutti d'accordo. E' ovvio che ha lasciato un po' perplessi questo NV30... ci si aspettava molto di più e invece per certi versi si è dimostrata inferiore a schede uscite diversi mesi prima. Questo, nel mondo informatico odierno, equivale ad un flop... che poi il mondo informatico sia penoso è un altro discorso (vedi schede, chipset e altro che durano il tempo di una pubblicità, nomi nuovi per componenti vecchi e tante altre cose...) Giusto quindi affermare che in questi ultimi mesi ha saputo fare le mosse giuste per potersi imporre: schede prestanti, buone innovazioni e qualche mese in più di durata. E non è questione di tifare per uno o per l'altro ma riconoscere hi ha fatto le mosse giuste... come qualche anno fa, quando Nvidia rubò lo scettro a 3DFX (prima di comprarla).
Riguardo al discorso che il software non sfrutta le reali capacità delle schede Nvidia (e non solo)... beh, il discorso di doomiii è in parte vero: il software è indietro e i benchmark magari non rendono conto delle innovazioni dell'NV30. Ma riflettiamo un attimo: purtroppo il tempo di durata di una Gpu è già basso di per sè, troppo basso rispetto al prezzo che si paga; già si parla di NV35 tra un paio di mesi (e questo significa he l'NV30 vedrà a malapena gli scaffali dei negozi). Cosa giustifica i 600 euro per la GeForce FX se questa mi assicura prestazioni uguali a quelle di schede meno costose nei software oggi in commercio? L'errore di Nvidia è stato proprio quello di progettare una Gpu forse rivolta troppo al futuro e meno al presente... ma considerando la durata delle schede video è un controsenso... Ripeto: non è questione di tifoserie (quelle non vanno neanche prese in considerazione) ma di premiare o meno delle scelte... io ho una 9700Pro è mi da delle grandi soddisfazioni (oggi) ma se in futuro Ati commetterà degli sbagli sarò prontissimo ad andare a bussare ad altre porte.

halduemilauno
07-04-2003, 13:33
Originally posted by "[JaMM

"]la situazione non è bella come viene dipinta da voi... indubbiamente nv35 sarà una gran scheda; non scalderà più di tanto perchè essendo il core prodotto da IBM verranno implementate tutte le tecnologie che non è stata in grado di adoperare TSMC, ossia il Silicon On Insulator ed i Dielectrics... sarà potente per l'elevata bandwidth e con frequenze più umane il che significa niente turbina... temo tuttavia che i settori medio e basso del settore resteranno invariati; la scheda di punta non produce la maggioranza dei guadagni di una azienda e fa solo da traino alle schede mid e low end... in quel settore nVidia non è competitiva: chi metterebbe una 5600 nel case...? Se nVidia non fa qualcosa anche lì le prenderà pesantemente dalle 9600 e 9200 di ATi...

peccato per l'ultima frase.eri partito bene.

ancheio
07-04-2003, 13:34
C'è gente che davvero non ha nulla da fare...mah!

Raven
07-04-2003, 13:34
Originally posted by "DoomIII"



...poi voi Atisti...

Ecco, quando vedo usare questi termini (mettiamoci anche "Nvidiosi", "fanATIci", "Nvidioti, "sfegatATI", ecc. ecc.) ogni tentativo di dialogo va a farsi benedire...

... quel "voi" poi... io non sento la necessità di identificarmi in nessuna marca di scheda video, al contrario di te evidentemente!!!
Io ho una Ati 8500 nel case, comprata perché in quel momento avevo un budget di 100€ euro circa e x quella cifra era il meglio... ma se mi dessero in cambio una 4600 lo farei al volo, così come cambierei la 4600 se mi dessero in cambio a sua volta una 9700... (per la cronaca, nel mio case ho avuto 3dfx, nvidia, S3 e Ati... pensa un po'! :D )

Non "fossiliziamoci" sui marchi, please! ;)

saltamine
07-04-2003, 13:51
Io tifo per te!!!

p.s. Anche io le ho avute tutte, pure Matrox e Intel!

saltamine
07-04-2003, 13:56
cmq il discorso che si faceva sull'ottimizzare le schede video in linea teorica è giusto, ma chi la fà fare ad un programmatore di rompersi le ossa per saper sfruttare al massimo una scheda che dopo 4 mesi al max è già obsoleta? E poi i progetti non si fanno in 3 settimane, un programmatore parte da ciò che è disponibile tecnologicamente al momento, poi al max aggiunge nuove feature, ma se dovesse rifare completamente tutto per ogni innovazione saremmo ancora dietro ad aspettare wolfstein3D!!!

adc2010
07-04-2003, 14:00
Originally posted by "jjs"

Se la notizia fosse confermata ufficialmente, ci troveremmo di fronte ad uno scocciante precedente, che potrebbe cambiare gli equilibri dell'industria videoludica. Stando a quanto riferito da Spong, un sito che si occupa di videogiochi, la Valve avrebbe stretto un accordo con la produttrice delle schede GeForce secondo il quale il nuovo episodio delle avventure di Gordon Freeman sarebbe disponibile solo per i possessori di schede nVidia.
La dichiarazione arriva direttamente da fonti interne alla nVidia medesima, che rincarano la dose affermando che questo sarà solo il primo di una lunga serie di accordi in esclusiva di questo tipo. «Assisterete ad un radicale cambiamento nell'industria dei giochi per PC nei prossimi mesi, con la prima serie di annunci all'E3; non si parlerà più di giochi per PC, ma di giochi per nVidia o ATi, come si fa già adesso per Sony e Nintendo». Un annuncio che, alle mie orecchie, suona più che altro come una minaccia...
Inutile dire che una simile notizia, qualora si rivelasse vera (e non c'è motivo, purtroppo, per cui non debba esserlo), costituirebbe un grosso passo indietro nell'industria, altro che "radicale cambiamento". La forza dei PC sta proprio nella loro modularità, e creare discriminanti sulla base di un componente che viene installato al suo interno non fa altro che rinnegare questa "elasticità". Così a caldo mi frullano per la testa più o meno duemila problemi legati a questa decisione. I computer OEM comprati in negozio, per esempio: quanta gente saprà che, acquistando una macchina fatta e finita, si "condanna" automaticamente a giocare alcuni titoli e non altri? E ancora: quanti "emulatori" di GeForce per schede ATi (e viceversa) usciranno nei prossimi mesi? E se la mia scheda madre dà problemi di incompatibilità con la GeForce 4 e fossi costretto a mettere una ATi? Per questo devo rinunciare a dei giochi?
Non so, tutto ciò mi sa di discriminatorio, una brutta strategia commerciale che tende ad escludere, "emarginare" chi fa scelte diverse, e non è certo una bella cosa...



Che bello ricopiare l'editoriale di oggi di TGMONLINE e spacciarlo come farina del proprio sacco...che tristezza!!! :rolleyes:

[JaMM]
07-04-2003, 14:03
Cerca di capirmi Hal; io non sono disposto ad acquistare una scheda che ad una certo prezzo mi offre prestazioni inferiori ad altre schede della stessa fascia di prezzo; facevo questo ragionamento sia quando allo stesso prezzo preferivo una Ti4200 ad una 8500le sia adesso quando preferisco una Radeon9500 ad una GeForceFx 5600... cerco solo di fare l'acquisto più conveniente, Hal. Senza nessun fanatismo per nessuna delle due parti ;). Anzi, per dirti di più, se allo stesso prezzo SiS, S3 o PowerVr producono schede migliori, perchè non acquistarle???

halduemilauno
07-04-2003, 14:16
Originally posted by "[JaMM

"]Cerca di capirmi Hal; io non sono disposto ad acquistare una scheda che ad una certo prezzo mi offre prestazioni inferiori ad altre schede della stessa fascia di prezzo; facevo questo ragionamento sia quando allo stesso prezzo preferivo una Ti4200 ad una 8500le sia adesso quando preferisco una Radeon9500 ad una GeForceFx 5600... cerco solo di fare l'acquisto più conveniente, Hal. Senza nessun fanatismo per nessuna delle due parti ;). Anzi, per dirti di più, se allo stesso prezzo SiS, S3 o PowerVr producono schede migliori, perchè non acquistarle???


ciao.
guarda che io mi riferivo(come detto)solo alla tua ultima frase.quando dicevi che la 5200ultra è inferiore alla 9200.è vero il contrario.e per quel che riguarda la 5600 ultra è un'ottima scheda per quel che si è visto nei bench.per il confronto diretto con la 9600 pro bisogna aspettare l'uscita di quest'ultima.
tutto qui.
a presto.
:) :)

per carità ma quale fanatismo.

[JaMM]
07-04-2003, 14:24
Hal non lo sapevo... ero convintissimo che la 9200 (avendo lo stesso core della 8500 ma limitato dalle sole 4 pipeline disponibili) fosse più performante dell'ultima arrivata di casa nVidia... meglio così; la 9600pro (anche qui soltanto 4 pipeline) visti i test della versione per portatili dovrebbe essere superiore ad una 9500pro... bisogna sperare che nVidia aggiorni la gamma di schede Mid end aggiungendo le innovazioni del core NV35 se vuole essere competitiva... magari con un bel bus a 256 bit potrebbe rendere le sue schede più appetibili...

Saluti

jjs
07-04-2003, 14:36
che bello vedere la gente che critica!!!!!!ma chi ti ha detto che è farina del mio sacco, lo hai letto da qualche parte!!????ho riportato l'articolo solo perchè mi sembrava molto esplicativo!!!!mamma mia peggio delle vecchie zittelle subito a criticare e a dire che quello copia, ma va' la manco mi pagassero!!!se poi mi vuoi citare per violazione del copyright fai pure!!!

yossarian
07-04-2003, 15:36
Originally posted by "DoomIII"



rispondo quotando te... ma sono risposte generali ;)

intanto il flop non è che sia proprio pazzesco come volete far credere... dei problemi se ne è parlato e nessuno li nega.
l'onestà e tutt'altra cosa... ci sono 2 macchine e tante gare per vedere chi ha la velocità massima, chi l'accellerazione, chi arriva prima in salita, chi in discesa ecc... ecc...
il software attuale è inutile farlo girare su NV30... ci sono notevoli innovazioni e non ha senso pretendere di giudicare l'NV30 valutando come ci gira del software che a mala pena sa solo parzialmente cosa sia uno shader...

se nVidia voleva fare una scheda per far girare meglio il software vecchio la faceva... io gli do onore di aver investito in nuove soluzioni piuttosto che in vecchie ottimizzazioni.


poi voi Atisti (discorso generico) smettetela con questa arroganza... adesso siete qui ad inveire perchè viene detto che se all'E3 viene presentato NV35 nVidia torna prima... e questo non vi sta bene perchè non siete consumatori interessati ai prodotti ma tifosi...

a che gioco è che volete giocare o rigiocare aumentando dettagli, risoluzione ecc....? dal mio punto di vista spendere tanti soldi per questo non è fruttevole... poi se uno può permetterselo tanto meglio... ma in questo momento come ho già detto per chi non ne ha assoluta necessità non mi sembra sia intelligente cambiare scheda video... ovviamente poi ognuno è giusto abbia le sue esigenze...

Il software sta andando avanti a rilento e siamo lontani da motori grafici che sfruttino le reali potenzialità dei prodotti... e le fixed function regnano ancora sovrane... e dal mio punto di vista nVidia potrebbe togliere totalmente il supporto al T&L così Ati è contenta di fare i suoi 300fps con software obsoleto e su nVidia sarebbe giusto che certo software insulso nemmeno ci giri più... perchè quello che mi fa incavolare è spendere soldi per dell'hardware che poi non viene sfruttato... che senso ha?
come le Gef3 con i circuiti NV15 inclusi per compatibilità (shader e fixed fuction cioè T&L non sono compatibili)... abbiamo avuto software su software che ancora adesso c'è... basta vedere unreal ed il suo motore grafico fixed-function oriented ad oggi che ci sono schede DX9 ed il T&L dovrebbe essere roba vecchia... ritornando a quello che dicevo abbiamo avuto titoli bugiardi che ingannavano molti poichè erano giochi DX8... peccato che di DX8 non ci fosse nulla poichè DX8 non significa shader visto che si può programmare DX8 usando gli shader oppure le fixed function (e quindi in pratica e come se si programmasse DX7)
in seguito (Geforce4) si sono visti alcuni titoletti che sfruttano solo marginalmente gli shader per dare qualche tocco in più qua e la ma il motore resta sempre concepito come fixed function...
questo tipo di software non sfrutta una Gef4... figuriamo il senso che può avere farlo girare su schede con estensioni DX9...

questo è ovviamente quello che penso io... onore ad Ati l'ho già dato in altri post e penso di essere obiettivo... non ho negato i problemi nVidia ne negato l'onore e i miglioramente fatti da Ati... ma dopo tutto questo tempo che in vari forum i tifosi Ati continuano ad inveire ho rivisto le mie posizioni in virtù del tipo di utenza che Ati generalmente ha... ovviamente non tutti sono così e nessuno si senta tirato in causa... ;) ma non se ne può davvero più che per ogni notizia di nVidia ci siano gli Atiisti che sfottono o che si lamentano perchè non viene detto che nVidia fa schifo ed Ati è il massimo.

NV30 fa casino e scalda un sacco? va bene... si è capito... lo trovo senz'altro pure io un problema... ma dopo che lo avete detto 20000 volte dateci un taglio... ed aggiungo ancora una cosa che per quanto riguarda i test... non mi sembra che le differenze siano tali per le quali se uno spende tutti quei soldini che costa un N30 poi gioca da schifo ed il gioco gli scatta... ed inoltre come ho già ricordato accennando anche al perchè... driver nuovi miglioreranno di molto la situazione...

Saluti, peace&love :cool:

Il tuo discorso sull'obsolescenza del SW è giustissimo. Di questo non puoi incolpare, però, né ATI né chiunque altro. Basta vedere la percentuale di utenti con schede di fascia alta presente su siti come HWUpgrade o lo stesso Futuremark (per non parlare degli altri), per rendersi conto che tra gli smanettoni, strainformati affetti da un qualche virus informatico che girano su siti di HW, il totale delle "schede video con funzioni evolute" raggiunge un 8-9% scarso; prendi tale percentuale e dividila per 10 per ottenere il totale dei possessori di schede video, tra gli utenti "comuni" che implementano il supporto per le ultime versioni di PS e VS. La stessa nVIDIA ha dichiarato di non preoccuparsi più di tanto, dal punto di vista economico, di un eventuale flop nelle vendite dell'FX5800, poichè, a detta della stessa nVIDIA, la versioni high end incidono per circa il 2% sul fatturato totale. Con una situazione così delineata, se tu fossi il responsabile di una SW House, faresti produrre un gioco DX9 (col rischio di venderlo ad un 5% scarso dei potenziali fruitori del tuo prodotto) o faresti in modo che tale SW giri sul maggior numenro di macchine possibile?

wolvie
07-04-2003, 16:23
Ma ormai si discute di cose che non si sa con certezza neppure se avverranno. Io direi di limitarci alle cose che conosciamo e che possiamo provare. Poi vorrei chiedere se qualcuno è contento delle uscite video delle schede nvidia. In genere per farle funzionare bisogna perdere mezza giornata e la qualità non è elevatissima. Eppure questo è un settore che sta diventando importante...mha...

Zio Gino
07-04-2003, 16:45
A me sembra che la prospettiva secondo cui potrebbe avvenire una scissione del mercato videoludico in base alla scheda video sia una baggianata colossale. Qualcuno dovrebbe essere veramente convincente nello spiegarmi perchè una software house possa volere masochisticamente restringere la potenziale base d'acquisto del proprio software: il mondo va al contrario! L'unica spiegazione plausibile sarebbe che l'ATI o l'Nvidia di turno possano riuscire a versare nelle tasche dei programmatori tanta pecunia (almeno) quanta questi potrebbero tirarne su non limitando il gioco a una sola scheda video.
Sappiamo tutti che software house, anche storiche e importanti, vengono chiuse tutt'altro che di rado e il motivo, in soldoni, è perchè non vendono abbastanza.
Si può capire che un gioco consigli una data scheda, cosa che mi fa abbastanza ridere, ma che limiti la sua fruizione a questa...beh...è molto + divertente, economicamente parlando....

DoomIII
07-04-2003, 17:44
Originally posted by "Raven"



Ecco, quando vedo usare questi termini (mettiamoci anche "Nvidiosi", "fanATIci", "Nvidioti, "sfegatATI", ecc. ecc.) ogni tentativo di dialogo va a farsi benedire...

... quel "voi" poi... io non sento la necessità di identificarmi in nessuna marca di scheda video, al contrario di te evidentemente!!!
Io ho una Ati 8500 nel case, comprata perché in quel momento avevo un budget di 100€ euro circa e x quella cifra era il meglio... ma se mi dessero in cambio una 4600 lo farei al volo, così come cambierei la 4600 se mi dessero in cambio a sua volta una 9700... (per la cronaca, nel mio case ho avuto 3dfx, nvidia, S3 e Ati... pensa un po'! :D )

Non "fossiliziamoci" sui marchi, please! ;)

mah, non capisco... tu non sei forse un tifoso Ati? non sei un Atista?
Allora perchè Quoti? A chi mi riferisco se dico: 'voi Atisti'?
mi riferisco forse a te?
no, mi riferisco a chi è Atista nel senso di tifoso più che consumatore... quindi non capisco perchè ti ci sei identificato visto che hai risposto. ;)
Prima di giudicare io cercherei di conoscere le persone a differenza tua che invece mi giudichi indicando che io mi identifico dietro ad una marca.
Sei proprio fuori strada... per passione posso entusiasmarmi per certe cose ma uso lo stesso giudizio per tutte le case... attualmente nVidia mi stà più 'simpatica' semplicemente per i suoi meriti poichè le sue innovazioni mi appassionano. O volete scrivere una mail a nVidia dicendogli che ha concepire gli shader poi dati in licenza per le DX e OpenGL e ad altri... e implementati da terzi come Ati ha fatto una stupidaggine e che è incompetente?
ecco per me queste sono cose importanti... perchè se io invento un motore ad energia solare e poi tu basandoti sui miei progetti ne realizzi un'altro... sinceramente penso di avere qualche merito più di te che ti sei basato semplicemente sul MIO lavoro e suoi MIEI investimenti...

similmente apprezzo gli investimenti di nVidia le sue ricerche ed i suoi sviluppi... solo penso questa inizi ad essere stufa nel dare a terzi le sue tecnologie e nel non vederle sfruttate a dovere.

Originally posted by "ultimate_sayan"

Riguardo al discorso che il software non sfrutta le reali capacità delle schede Nvidia (e non solo)... beh, il discorso di doomiii è in parte vero: il software è indietro e i benchmark magari non rendono conto delle innovazioni dell'NV30. Ma riflettiamo un attimo: purtroppo il tempo di durata di una Gpu è già basso di per sè, troppo basso rispetto al prezzo che si paga; già si parla di NV35 tra un paio di mesi (e questo significa he l'NV30 vedrà a malapena gli scaffali dei negozi). Cosa giustifica i 600 euro per la GeForce FX se questa mi assicura prestazioni uguali a quelle di schede meno costose nei software oggi in commercio? L'errore di Nvidia è stato proprio quello di progettare una Gpu forse rivolta troppo al futuro e meno al presente... ma considerando la durata delle schede video è un controsenso... Ripeto: non è questione di tifoserie (quelle non vanno neanche prese in considerazione) ma di premiare o meno delle scelte... io ho una 9700Pro è mi da delle grandi soddisfazioni (oggi) ma se in futuro Ati commetterà degli sbagli sarò prontissimo ad andare a bussare ad altre porte.

infatti, sono perfettamente d'accordo con te... ;) a me piace l'NV30 per le innovazioni che porta... non nascondo i suoi problemi e l'inutilità di acquistarlo visto che non c'è software... ed in altri post ho più volte ribadito come adesso spendere quei soldi per comperare una scheda nuova non mi sembri proprio sensato... visto che quando ci sarà software ci saranno anche schede più evolute.
La situazione dal punto di vista hardware/software è strana... realizzare un motore grafico richiede anni... basti vedere DoomIII che è stato mostrato la prima volta proprio alla presentazione della Gef3... bisogna quindi considerare generazione software e generazione hardware... attualmente siamo molto più avanti come generazione hardware rispetto a quella software.
(P.S. non lo nego, onore ad Ati per aver fatto un ottimo prodotto commerciale dedicando i suoi sforzi sulle ottimizzazioni rivolte al software 'attuale'... ma da appassionato preferisco le novità nVidia alle ottimizzazioni Ati... novità che non vedete certo nei bench che personalmente considero insulsi)


La gef3 ha portato diverse innovazioni... mi piaceva... gli shader ecc... obiettivamente si vedeva ed avevo detto che era cmq un'introduzione... difatti gli shader non sono stati usati se non solo marginalmente ma su gef3 non sarebbe stato possibile sfruttare al 100% le capacità introdotte... con la gef4 si... ma cmq non è stato fatto...
adesso la situazione con l'NV30 è simile ma molto migliore però rimane proprio il problema che nemmeno NV25 è stato sfrutatto degnamente... altro che NV30 e NV35...


Originally posted by "yossarian"



Il tuo discorso sull'obsolescenza del SW è giustissimo. Di questo non puoi incolpare, però, né ATI né chiunque altro. Basta vedere la percentuale di utenti con schede di fascia alta presente su siti come HWUpgrade o lo stesso Futuremark (per non parlare degli altri), per rendersi conto che tra gli smanettoni, strainformati affetti da un qualche virus informatico che girano su siti di HW, il totale delle "schede video con funzioni evolute" raggiunge un 8-9% scarso; prendi tale percentuale e dividila per 10 per ottenere il totale dei possessori di schede video, tra gli utenti "comuni" che implementano il supporto per le ultime versioni di PS e VS. La stessa nVIDIA ha dichiarato di non preoccuparsi più di tanto, dal punto di vista economico, di un eventuale flop nelle vendite dell'FX5800, poichè, a detta della stessa nVIDIA, la versioni high end incidono per circa il 2% sul fatturato totale. Con una situazione così delineata, se tu fossi il responsabile di una SW House, faresti produrre un gioco DX9 (col rischio di venderlo ad un 5% scarso dei potenziali fruitori del tuo prodotto) o faresti in modo che tale SW giri sul maggior numenro di macchine possibile?

si hai ragionissima, lo so bene... infatti mica me la prendo con Ati... c'è l'ho proprio con gli sviluppatori :D poi c'è anche da dire e considerare che l'attuale mossa Ati per quanto ottima commercialmente non favorisce certo il 'software nuovo' visto che si è dedicata ad ottimizzazioni 'old'

di nVidia ad esempio critico la serie economica... mi va bene una versione economissima MX... ma non come ha fatto. Vi ricordo che le MX non hanno la GPU (shader) ma ha solamente il T&L(fixed function).
Quindi ovviamente gli sviluppatori devono tener conto del fatto che non tutti gli utenti possiedono una GPU... e quindi i motori sono fixed-function oriented con marginale uso opzionale degli shader per ottenere qualche effetto in più.

Faby82
07-04-2003, 18:14
Nvidia avrà pure introdotto delle innovazioni tecnologiche pero' non ha ottimizzato la vecchia architettura al livello di Ati...
la GFfx5800ultra è stata un flop (commercialmente parlando), dopo mesi dall'uscita della radeon9700pro non si puo' immettere sul mercato, una scheda ke va meno della concorrenza con il software di oggi...
Quindi Nvidia ha perso lo scettro.

Alevalent
07-04-2003, 18:30
Ricopio un editoriale preso da tgmonline.it... se si realizza nVidia ha completamente perso di vista la realta'...

"Stando a quanto riferito da Spong, un sito che si occupa di videogiochi, la Valve avrebbe stretto un accordo con la produttrice delle schede GeForce secondo il quale il nuovo episodio delle avventure di Gordon Freeman sarebbe disponibile solo per i possessori di schede nVidia.
La dichiarazione arriva direttamente da fonti interne alla nVidia medesima, che rincarano la dose affermando che questo sarà solo il primo di una lunga serie di accordi in esclusiva di questo tipo. «Assisterete ad un radicale cambiamento nell'industria dei giochi per PC nei prossimi mesi, con la prima serie di annunci all'E3; non si parlerà più di giochi per PC, ma di giochi per nVidia o ATi, come si fa già adesso per Sony e Nintendo». Un annuncio che, alle mie orecchie, suona più che altro come una minaccia...
Inutile dire che una simile notizia, qualora si rivelasse vera (e non c'è motivo, purtroppo, per cui non debba esserlo"

:confused:

ultimate_sayan
07-04-2003, 18:37
Per DoomIII

Quote:
"(P.S. non lo nego, onore ad Ati per aver fatto un ottimo prodotto commerciale dedicando i suoi sforzi sulle ottimizzazioni rivolte al software 'attuale'... ma da appassionato preferisco le novità nVidia alle ottimizzazioni Ati... novità che non vedete certo nei bench che personalmente considero insulsi)"

Ok... capisco che i bench siano insulsi e il software indietro però... oggi questa è la situazione e una GPU non la si può giudicare buona solo per quello che POTREBBE fare o per quello che avevano in testa i loro sviluppatori quando la progettavano. Fare software indietro rispetto all'HW è abbastanza inutile quanto fare GPU con capacità che non verranno mai implementate... un'ultima cosa (e parlo oggettivamente)... se ad Nvidia non fosse interessato nulla dei bench non avrebbero rilasciato driver appositamente creati per strappare qualche punto in più a 3dMark2003... purtroppo è così... anche 3dfx con la Voodoo5 aveva in mente grandi cose (impensabili ai tempi della GeForce 1 ma ha sbagliato (commercialmente parlando) ed è rimasta fregata.

Raven
07-04-2003, 18:47
Originally posted by "DoomIII"



mah, non capisco... tu non sei forse un tifoso Ati? non sei un Atista?
Allora perchè Quoti? A chi mi riferisco se dico: 'voi Atisti'?
mi riferisco forse a te?
no, mi riferisco a chi è Atista nel senso di tifoso più che consumatore... quindi non capisco perchè ti ci sei identificato visto che hai risposto. ;)
Prima di giudicare io cercherei di conoscere le persone a differenza tua che invece mi giudichi indicando che io mi identifico dietro ad una marca.
Sei proprio fuori strada... per passione posso entusiasmarmi per certe cose ma uso lo stesso giudizio per tutte le case... attualmente nVidia mi stà più 'simpatica' semplicemente per i suoi meriti poichè le sue innovazioni mi appassionano. O volete scrivere una mail a nVidia dicendogli che ha concepire gli shader poi dati in licenza per le DX e OpenGL e ad altri... e implementati da terzi come Ati ha fatto una stupidaggine e che è incompetente?

:eek: ... ma lo hai letto il mio post?!?
Mi sa che non hai capito NULLA di quello che ho scritto... :rolleyes:

neo1964
07-04-2003, 19:29
Come si fanno le faccine??????

DoomIII
07-04-2003, 20:17
Originally posted by "Faby82"

Nvidia avrà pure introdotto delle innovazioni tecnologiche pero' non ha ottimizzato la vecchia architettura al livello di Ati...
la GFfx5800ultra è stata un flop (commercialmente parlando), dopo mesi dall'uscita della radeon9700pro non si puo' immettere sul mercato, una scheda ke va meno della concorrenza con il software di oggi...
Quindi Nvidia ha perso lo scettro.

Si è vero... l'ho detto diverse volte che commercialmente Ati ha fatto una buona mossa... la differenza di prestazioni però non mi pare sia così drastica... certo tutti gli elementi messi assieme (costo , rumorosità ecc...) non vanno certo a favore del prodotto nVidia. In produzione ci sono stati problemi (TMSC) che hanno sfavorito la produzione del NV30 ma sicuramente alcune cose saranno risolte... e per le prestazioni c'è da dire che la differenza non è così marcata e ci sono bench e bench... avevo anche già indicato in altri post proprio perchè in virtu dell'architettura adottata nel NV30 ci sono fortissime possibilità di incrementare le prestazioni con driver futuri.
dal mio punto di vista poi non va meno della concorrenza con il software di oggi... ma semmai con il software dell'altro ieri.
A tal riguardo non ha importanza la data di uscita del gioco... se oggi producessero una Gef2... sarabbe in un certo senso una scheda di oggi, è stata prodotta oggi, ma architetturalmente o tecnologicamente è vecchia... come ad esempio per le MX... similmente per il software che attualmente non sfrutta nemmeno degnamente una Gef4 (in termini di shader) e' che è fixed-function oriented non posso fare altro che considerarlo software dell'altro ieri... e non mi sembra il caso di spendere 600€ per giocarci...


Originally posted by "ultimate_sayan"

Per DoomIII

Ok... capisco che i bench siano insulsi e il software indietro però... oggi questa è la situazione e una GPU non la si può giudicare buona solo per quello che POTREBBE fare o per quello che avevano in testa i loro sviluppatori quando la progettavano. Fare software indietro rispetto all'HW è abbastanza inutile quanto fare GPU con capacità che non verranno mai implementate... un'ultima cosa (e parlo oggettivamente)... se ad Nvidia non fosse interessato nulla dei bench non avrebbero rilasciato driver appositamente creati per strappare qualche punto in più a 3dMark2003... purtroppo è così... anche 3dfx con la Voodoo5 aveva in mente grandi cose (impensabili ai tempi della GeForce 1 ma ha sbagliato (commercialmente parlando) ed è rimasta fregata.


il fatto è che se non esce l'hardware non esce nemmeno il software... difficilmente avremo giochi DX10 prima che ci siano schede grafiche perchè gli sviluppatori hanno bisogno dell'hardware per sviluppare.
cmq capisco il tuo discorso ma c'è una stasi di mercato... infatti ho detto che non ha senso acquistare attualmente schede simili visto che non c'è software... io non sto mica qui a dire: nVidia fighissima comprate le FX... anzi se non avete necessità di cambiare scheda video non ha proprio senso in questo momento comperare nulla.

Per i bench il 3dMark2003 mi fa semplicemente ridere... ma lasciamo stare... perchè se penso che in realtà rispecchia abbastanza l'attuale situazione/scarso livello software mi viene da piangere.
cmq si ovvio che nVidia ne sia interessata... è il mercato... nVidia come tutte le case vuole guadagnare e tirare l'acqua dal suo mulino... è ovvio che quando escono bench e vengo pubblicati e suscitano tanto clamore si cerchi di ovviare.

Il paragone con 3dfx non è proprio corretto... la situazione (per adesso) è totalmente diversa... poi in futuro tutto può accadere... insomma quando Ati non era prima era forse come 3dfx sull'orlo del fallimento?
IMHO Ati ha vinto una battaglia, lasciando adesso perdere le opinioni su quanto sia lecito corretto o meno... bench valido o inutili ecc..., nessuno nega che Ati abbia commercialmente lavorato bene e mi fa d'avvero piacere nella speranza che ci sia una battaglia sempre migliore... abbassamento di prezzi e auspicherei miglioramenti qualitativi delle schede grafiche low(in pratica basta con ste fixed-function che mi hanno stufato :D )... ad ogni modo con questa battaglia vinta non è che nVidia sia sull'orlo del fallimento... ed anche se la situazione non dovesse combiare... mettiamo che Ati tiri fuori schede fighissime... rivoluzionarie ecc... da qua a far chiudere i battenti ad nVidia cmq ne passa di acqua sotto i ponti... si potrebbero scambiare i ruoli e sarebbe Ati prima e nVidia che fa concorrenza... poi questo non penso possa accadere che poi accada o meno per me è irrilevante... mi interessano le schede indipendetemente da chi le fa... certo se nVidia un domani dovesse fallire questo mi dispiacerebbe per l'innegabile importanza che ha avuto.

ok, basta che mi annoio da solo...
però nVidia ha acquistato 3dfx... che prima di fallire aveva acquistato gigapixel... mi aspetto molto anche dallo sfruttamento/evoluzione di quei brevetti.

sanitarium
07-04-2003, 20:23
Originally posted by "neo1964"

Come si fanno le faccine??????

Clicchi sopra alla faccina che ti interessa (alla sinistra del box dove scrivi il messaggio) e questa viene inserita automaticamente nel messaggio! :D

neo1964
07-04-2003, 21:01
Originally posted by "sanitarium"



Clicchi sopra alla faccina che ti interessa (alla sinistra del box dove scrivi il messaggio) e questa viene inserita automaticamente nel messaggio! :D

T.Y. 1000[/siz] ;)

:D

sanitarium
07-04-2003, 21:16
Originally posted by "neo1964"



T.Y. 1000[/siz] ;)

:D

Di nulla! ;)

yossarian
08-04-2003, 01:03
Originally posted by "DoomIII"





si hai ragionissima, lo so bene... infatti mica me la prendo con Ati... c'è l'ho proprio con gli sviluppatori :D poi c'è anche da dire e considerare che l'attuale mossa Ati per quanto ottima commercialmente non favorisce certo il 'software nuovo' visto che si è dedicata ad ottimizzazioni 'old'

di nVidia ad esempio critico la serie economica... mi va bene una versione economissima MX... ma non come ha fatto. Vi ricordo che le MX non hanno la GPU (shader) ma ha solamente il T&L(fixed function).
Quindi ovviamente gli sviluppatori devono tener conto del fatto che non tutti gli utenti possiedono una GPU... e quindi i motori sono fixed-function oriented con marginale uso opzionale degli shader per ottenere qualche effetto in più.

Non è del tutto giusto dire che ATI con l'uscita dell'R300 non aiuta il progresso tecnologico. L'R300 è uscito con specifiche almeno DX9, quando le DX9 non erano ancora state rilasciate ufficialmente, quindi, al momento della sua immissione sul mercato, era addirittura in anticipo sui tempi. Il problema del SW vecchio rispetto all'HW è un po' quello del cane che si morde la coda (è un boxer :D ). Chi produce HW deve investire nella ricerca (che ha un costo piuttosto elevato) per poter essere concorrenziale. Questo comporta che, al momento della loro uscita, i nuovi prodotti hanno costi molto elevati (non accessibili alla stragrande maggioranza degli utenti che fruirebbero volentiri di HW high end). Di conseguenza si determina una situazione in cui le nuove tecnologie sono appannaggio di pochi. Chi produce SW dwvw a sua volta fare degli investimenti (notevoli, soprattutto quando si tratta di progettare un nuovo engine grafico) e, ovviamente spera di vendere il più possibile. Per poterlo fare, però, non può far uscire un prodotto che pochi sarebbero in grado di veder girare. Quindi deve adattare la produzione alle esigenze della massa.
Quando la nuova tecnologia diventa di massa (calano i costi), allora vuol dire che sono usciti prodotti con caratteristiche superiori (che a loro volta saranno a beneficio di pochi eletti). Se consideri che, a parte qualcuno che cambia frequentemente scheda video o cpu, la stragrande maggioranza di coloro che possiedono un pc amano giocare ma non sono giocatori incalliti e, perciò, cambiano HW quando la necessità glielo impone (quando si rompe qualcosa o quando qualche programma che, magari, serve per lavoro, non gira più sul vecchio pc), ossia. in media ogni 3 o 4 anni, ecco spiegato il motivo per cui la quasi totalità dei titoli attuali utilizzano specifiche DX7 (se non ancora più vecchie) e, col contagocce, qualcosa DX8; come vedi i conti tornano, poichè questi SW devono girare su macchine con scgede della famiglia delle TNT2 o delle G400 o delle VooDoo3 o magari, GF2 o Radeon 7200/7500 (quando non addirittura TNT, G200 o più vecchie ancora).
L'NV30 ha sicuramente delle caratteristiche interessanti, però, attenzione, poichè l'elevata programmabilità può essere ottenuta anche su una struttura come quella dell'R300, utilizzando la tecnica, nota come F-Buffer, ideata alla Stanford University (come dimostrato dall'R350), senza dover ricorrere ad una particolare architettura, come è stato invece per la FX, che determina, in molte situazioni, una perdita dell'efficienza.
Sul fatto che l'NV30 abbia dei margini di miglioramento non credo ci siano dubbi, ma lo stesso discorso vale anche per l?r300 (e l'R350, di conseguenza). Se poi la stessa nVIDIA, nel progettare l'NV35, ha modificato in maniera radicale l'architettura del chip (256 bit e, forse 8x1 anzichè 4x2, nonchè l'utilizzo di frequenze di funzionamento più basse), vuol dire che ha preso atto degli errori commessi ed è corsa ai ripari. Altrimenti avrebbe fatto come ha fatto con l'NV20 (quello si che è stato un chip veramente riuscito!) che le ha permesso di andare avanti tranquillamente per due anni con delle piccole modifiche ad un'architettura ben progettata.

sanitarium
08-04-2003, 08:34
Ciao, io e te abbiamo già avuto uno scambio di opinioni su questo tema (NV30 e R300), ma ora mi viene spontanea una domanda: premesso che non voglio risultare affatto provocatorio, ma che invece la mia domanda nasce dal ragionamento che ho fatto leggendo i tuoi post, ti vorrei chiedere:
Se tu ti ritieni un utente imparziale, e se sei un grande sostenitore di GPU programmabili, shaders e via dicendo, come mai però esalti soltanto le tecnologie implementate su NV30, e non quelle implementate in R350? L'F-buffer non è ciò che tu hai sempre sognato, e cioè una tecnologia che supporta la programmazione di pixel shaders SENZA LIMITI DI LUNGHEZZA DELLE ISTRUZIONI? Non va anche oltre ciò che permette NV30, che invece i limiti (seppure difficili da raggiungere, ma pur sempre di limiti si tratta) ce li ha? Se si è appassionati di tecnologie, e non si bada alla marca di scheda video, allora perché non esaltare anche questa tecnologia implementata da ATi? Non mi sembra che ATi sia rimasta indietro a NVidia in fatto di innovazioni, anzi...

Maxsteel
08-04-2003, 10:02
Bravo Wonder molto provocatorio, ma mi sei piaciuto!!!

cdimauro
08-04-2003, 13:18
Che sia colpa del software o meno, ha poca importanza: il punto fondamentale è che l'NV30 non è il chip che tutti si aspettavano. Ati è riuscita a sfornare un prodotto che già da Agosto 2002 era possibile comprare e sfruttare superbamente, sia con applicazioni DX 7 che 8, e a fine 2002 anche con quelle DX9. Il tutto con una qualità grafica impareggiabile... e senza driver taroccati per aumentare le performance a discapito della qualità.

Sono tutti fatti assolutamente incontestabili: c'è poco da dire.

Non si possono imputare alla mancanza di software DX9 le prestazioni deludenti dell'NV30: l'R300 macina giochi alacramente con l'unità T&L sia fissa che non, senza farsi scrupoli della versione delle DX. Cosa che dovrebbe fare anche l'NV30, e lo fa: ma molto diversamente da quanto c'aveva illusi nVidia con i suoi grafici creati ad hoc e le false informazioni di cui ha riempito internet...

Tra l'altro, se già il software per le DX8 scarseggia, perché mai una casa avrebbe dovuto introdurre addirittura delle estensioni alle non ancora ufficiali e DirectX9? Masochismo o superbia?

Inoltre, nVidia mal ripagata dalla creazione e dalla concessione delle licenze degli shader? Non credo. Altre case hanno introdotto caratteristiche innovative che sono state poi integrate nelle nuove DirectX e nelle estensioni OpenGL: Environment mapping, Hardware displacement mapping, TrueForm sono soltanto gli esempi più conosciuti...

Piuttosto possiamo dire che non ha saputo capitalizzare e valorizzare quindi le proprie conoscenze: basti vedere Ati che, subito dopo l'arrivo delle GeForce3 con supporto ai nuovi shader, introdusse l'R200/8500 che implementava addirittura i nuovi shader 1.4 delle DX 8.1, non implementati da nVidia neppure nelle successive GeForce 4...

Ati, nVidia, Matrox, 3DLabs, sono tutte aziende che viaggiano bene o male sulla stessa barca: non si può certo dire che Ati è stata avvantaggia rispetto ad nVidia perché è un colosso e con le sue risorse se lo può permettere...

Questa volta è andata bene ad Ati e male ad nVidia: tutto qui. E c'è poco da ricamarci sopra discorsi più o meno utili: parlano i fatti!

Vedremo con l'NV35 e poi con l'R400 se il mercato saprà ritrovare un giusto bilanciamento delle architetture (e dei prezzi)...

yossarian
08-04-2003, 15:29
Originally posted by "cdimauro"

Che sia colpa del software o meno, ha poca importanza: il punto fondamentale è che l'NV30 non è il chip che tutti si aspettavano. Ati è riuscita a sfornare un prodotto che già da Agosto 2002 era possibile comprare e sfruttare superbamente, sia con applicazioni DX 7 che 8, e a fine 2002 anche con quelle DX9. Il tutto con una qualità grafica impareggiabile... e senza driver taroccati per aumentare le performance a discapito della qualità.

Sono tutti fatti assolutamente incontestabili: c'è poco da dire.

Non si possono imputare alla mancanza di software DX9 le prestazioni deludenti dell'NV30: l'R300 macina giochi alacramente con l'unità T&L sia fissa che non, senza farsi scrupoli della versione delle DX. Cosa che dovrebbe fare anche l'NV30, e lo fa: ma molto diversamente da quanto c'aveva illusi nVidia con i suoi grafici creati ad hoc e le false informazioni di cui ha riempito internet...

Tra l'altro, se già il software per le DX8 scarseggia, perché mai una casa avrebbe dovuto introdurre addirittura delle estensioni alle non ancora ufficiali e DirectX9? Masochismo o superbia?

Inoltre, nVidia mal ripagata dalla creazione e dalla concessione delle licenze degli shader? Non credo. Altre case hanno introdotto caratteristiche innovative che sono state poi integrate nelle nuove DirectX e nelle estensioni OpenGL: Environment mapping, Hardware displacement mapping, TrueForm sono soltanto gli esempi più conosciuti...

Piuttosto possiamo dire che non ha saputo capitalizzare e valorizzare quindi le proprie conoscenze: basti vedere Ati che, subito dopo l'arrivo delle GeForce3 con supporto ai nuovi shader, introdusse l'R200/8500 che implementava addirittura i nuovi shader 1.4 delle DX 8.1, non implementati da nVidia neppure nelle successive GeForce 4...

Ati, nVidia, Matrox, 3DLabs, sono tutte aziende che viaggiano bene o male sulla stessa barca: non si può certo dire che Ati è stata avvantaggia rispetto ad nVidia perché è un colosso e con le sue risorse se lo può permettere...

Questa volta è andata bene ad Ati e male ad nVidia: tutto qui. E c'è poco da ricamarci sopra discorsi più o meno utili: parlano i fatti!

Vedremo con l'NV35 e poi con l'R400 se il mercato saprà ritrovare un giusto bilanciamento delle architetture (e dei prezzi)...

oltretutto la concessone dell'utilizzo degli shader (come di qualunque altra innovazione) per DX e OGL, fa comodo anche a chi tale novità l'ha ideata. Se gli shader non fossero diventati una standard ma fossero rimasti di proprietà nVIDIA, quanti giochi sarebbero usciti o sarebbero potuti uscire con supporto PS, sapendo che solo una minima parte dell'HW in circolazione ne avrebbe beneficiato?

DoomIII
08-04-2003, 16:38
Originally posted by "sanitarium"

Ciao, io e te abbiamo già avuto uno scambio di opinioni su questo tema (NV30 e R300), ma ora mi viene spontanea una domanda: premesso che non voglio risultare affatto provocatorio, ma che invece la mia domanda nasce dal ragionamento che ho fatto leggendo i tuoi post, ti vorrei chiedere:
Se tu ti ritieni un utente imparziale, e se sei un grande sostenitore di GPU programmabili, shaders e via dicendo, come mai però esalti soltanto le tecnologie implementate su NV30, e non quelle implementate in R350? L'F-buffer non è ciò che tu hai sempre sognato, e cioè una tecnologia che supporta la programmazione di pixel shaders SENZA LIMITI DI LUNGHEZZA DELLE ISTRUZIONI? Non va anche oltre ciò che permette NV30, che invece i limiti (seppure difficili da raggiungere, ma pur sempre di limiti si tratta) ce li ha? Se si è appassionati di tecnologie, e non si bada alla marca di scheda video, allora perché non esaltare anche questa tecnologia implementata da ATi? Non mi sembra che ATi sia rimasta indietro a NVidia in fatto di innovazioni, anzi...

Ciao :)

semplicemente perchè ci sono molti aspetti da considerare... si può leggere da qualche parte: l'R350 ha F-Buffer che ecc... ecc... e di conseguenza farsi un'opinione e similmente per altre features. (stesso discorso ovviamente è per nVidia)
Tutt'altra cosa è analizzare nel dettaglio per cercare di farsi un idea... nel caso specifico per la sommatoria di tutti gli aspetti ho tratto le mie conclusioni. (un po come quando analizzai NV20 ritenendolo rivoluzionario ma rendendomi pienamento conto che per poter realmente sfruttare gli shader c'era la necessità di un NV25... poi adesso questo è gia passato e non è neanche stato sfruttato...)
Sono più impressionato dagli sviluppi nVidia(anche a livello di istruzioni shader ad esempio e l'architettura stessa del vertex e del pixel shader)... e vi ricordo che è proprio il tipo di architettura adottata che può beneficiare enormemente di nuovi driver... che non sono come alcuni di voi insinuano trucchetti subdoli per avere performance maggiori... per chi la pensa così si informi un'attimino su cosa è un driver ed a cosa serve ecc... (questo non toglie nulla ovviamente ai discorsi dei driver-boost... mi riferisco a driver che fanno il loro lavoro...)

cmq non nego che Ati faccia/abbia fatto e speriamo farà le sue 'evoluzioni tecnlogiche'... ma spesso non mi convincono(poi in futuro le cose possono cambiare)... è presto per parlare del F-Buffer ma non mi convince del tutto(un po come il trueforme a suo tempo)... attualmente preferisco la soluzione nVidia.

inoltre rispondo anche a chi insiste con sta storia che ad nVidia è andata male ecc.... che parlano i fatti...
quali fatti?
non c'è niente da ricamare... senza nulla togliere ai meriti di Ati mi sembra semplicemente un po presto per fare discorsi di questo tipo... poi vabbè se lo scopo è mettersi una coppa nella propria cameretta con su scritto Ati per 2 settimane dominatrice del mondo... :rolleyes:
non dimenticate però che nVidia è ancora ben che prima per quanto riguarda la base installata... con questo non voglio elogiare nVidia ma non mi sembra il caso di continuare per la situazione attuale, che IMHO è soltanto confusa e transitoria, a far vedere che nVidia sia in crisi pronta al fallimento.
Da un certo punto di vista mi sembra che sia una partita a calcio dove una parte sta vincendo alla grande e l'altra ha fatto il gol della bandiera su rigore... e per questo motivo dopo il 10 a 1 i tifosi della squadra perdente esultano vittoriosi insultando l'altra squadra (che sta vincendo) come se invece fosse questa a perdere...

mi sembra che indubbiamente nVidia sia da molto tempo leader del mercato... se adesso non lo è più al 100% perchè per vari bench ecc... ha perso il ruolo di scheda più veloce che sembrerebbe sia Ati... questo non fa assolutamente di Ati la leader... è per Ati un ottimo segnale e raccoglie sicuramente ciò che le spetta per il lavoro che hanno fatto perchè indubbiamente hanno migliorato e migliorano su tutti i fronti... ma ripeto per diventare leader deve fare ancora qualche gol... e se adesso è stata favorita da una certa situazione stazionaria e transitoria sia hardware che software il futuro è tutto da giocare. (ciò non toglie ovviamente i meriti per aver saputo interpretare il momento con scelte di marketing azzaccate... potrebbe anche essere stata fortuna... ma diamone merito ;) )

poi l'ho già detto in altri post... visto il casino che avete fatto nessuno fermerà gli nVidia-boy a rompere in tutti i thread non appena la situazione per un motivo o per l'altro cambierà.
Ritornando alla partita sopra ed al casino fatto per il 10-1... immaginatevi che tafferugli al 11 a 1...

per far si che la situazione cambi bastano una di queste cose:
-nuove revisioni del NV30 che risolvano alcuni problemi
-nuovi driver perchè quelli attuali non sono competenti per l'hw e non potete neanche immaginare la differenza con dei driver ottimizzati
-NV35
-giochi che sfruttino degnamente i vertex/pixel shader e non quindi fixed-function oriented.

Faby82
08-04-2003, 17:59
Potresti gentilmente spiegare perkè non ti convince l'F-buffer?
Secondo te è giusto paragonare l'R300 con l'NV30 considerando il gap temporale della loro uscita e il prezzo?

Vedremo l'NV35 e l'R400 ke innovazioni porteranno :P

peace&love

DoomIII
09-04-2003, 11:29
Originally posted by "Faby82"

Potresti gentilmente spiegare perkè non ti convince l'F-buffer?


assolutamente no :p ;)
bè, diciamo innanzi tutto che il mio commento era rivolto a specificare che tra l'insieme di cose fatte da nVidia e da Ati preferisco quelle della prima...
per quanto riguarda l'F-Buffer sinceramente non se ne sa ancora molto dell'implementazione Ati... dico questo perchè l'F-buffer tecnologicamente non è propriamente un invenzione Ati... e quindi bisogna vedere invece quella che è la sua implementazione della quale non si sa molto.
Non mi convince perchè per quello che si sa trovo l'FX sicuramente più flessibile... inoltre in questo momento è una soluzione inutile che mi sembra più che altro vada a sopperire a gravi mancanze del R300.
NV30 vs R300 bastarebbe ed avanzerebbe del software decente per declassare l'R300 che presenta gravi lacune:

in sostanza l'architettura è obiettivamente a detta di tutti gli esperti del settore tecnologicamente più avanzata... ma sopratutto viene incontro agli sviluppatori offrendo maggiore flessibilità. Nell'architettura nVidia ha dedicato tutto agli shader o meglio all'esecuzione dei programmi shader è ovvio che nel software attuale che non sfrutta gli shader non è possibile rendersi conto di queste ottimizzazioni e dei progressi che ha fatto in merito nVidia... per tornare al discorso delle lacune del R300 ci sono situazioni in cui grazie all'architettura del NV30 basta una sola passata ed un solo programma shader laddove R300 invece sarebbe costretto ad usarne molte di più con un rapporto anche di 1:7 con un conseguente calo di performance impressionante sul R300.



Questa soluzione porta ancora ad altri problemi di compatibilità tra le 2 rivali (Ati e nVidia) complicando ancora la situazione agli sviluppatori poichè mi sembra la soluzione FX attualmente fornisca opzioni in più mentre quella Ati soffra di effetti collaterali... e potrebbe essere in un certo senso un po come il trueform(in un motore shader il trueform crea artefatti grafici ed è quindi inutilizzabile... ad esempio in caso di 'reali ombre dinamiche')

hmm... c'è anche il fatto che attualmente l'F-Buffer viene supportato dalle OpenGL ma non in DX... e teoricamente la soluzione NV30 è già nelle specifiche delle estensioni della prossima release delle DX.

Originally posted by "Faby82"


Secondo te è giusto paragonare l'R300 con l'NV30 considerando il gap temporale della loro uscita e il prezzo?

no questo no... l'R300 andrebbe paragonato al NV35 visto che è gia stato presentato... :p anche se a porte chiuse

Originally posted by "Faby82"


Vedremo l'NV35 e l'R400 ke innovazioni porteranno :P

peace&love



hmmm... l'NV35 e l'NV30 rinato con i nuovi driver si scontreranno con l'R350...

per l'R400 che dovrebbe uscire ai primi del prossimo anno o forse entro la fine dell'anno ci dovrebbe essere l'NV40... uso il condizionale perchè dipende molto da Ati... da quanto valido sarà l'R400 e da come finirà la battaglia NV35 vs R350... altrimenti si... a fine anno dopo R400 si scontrerà con NV35 in fin dei conti cavallo di battaglia del R400 saranno gli shader versione 3.... ma già nell'NV30 nVidia si trova pronta tecnologicamente soddisfando diversi requisiti a dimostrazione di come nVidia già ci sia dove Ati arriverà forse a fine anno... e sarà da vedere come ci arriva... anzi nVidia si auspica al più presto lo sfruttamente di alcune di quelle estensioni per dimostrare la potenza del NV30 che adesso non può essere espressa... in tal senso NV30 ma molto meglio NV35 potrebbero dimostrarsi un investimento.

sinceramente spero Ati faccia un buon lavoro così nVidia spara fuori l'NV40 e non ci sia quindi la battaglia NV35 vs R400.

sanitarium
09-04-2003, 14:37
Originally posted by "DoomIII"

no questo no... l'R300 andrebbe paragonato al NV35

E' uno scherzo, vero?

DoomIII
09-04-2003, 14:57
Originally posted by "sanitarium"



E' uno scherzo, vero?

se hai letto tutto il mio commento quello che dico dopo dovrebbe chiarire le idee:

Originally posted by "postato da me


...
hmmm... l'NV35 e l'NV30 rinato con i nuovi driver si scontreranno con l'R350...
...


quindi diciamo che in parte è una scherzo... ma dipende molto da cosa si intende per scontrarsi/confronto ecc...
e non è affatto detto che anche da un punto di vista di mercato i 2 prodotti non vadano a scontrarsi...

e soprattutto l'ho detto perchè è sempre bello notare l'imparzialità delle persone... dire che l'R400 si scontrerà con l'NV35 vi è normale... lo accettate con naturalezza... l'R400 sarà nuovissimo mentre l'NV35 è già stato presentato... Ati ha comunicato di decellerare il processo produttivo e sono segnali che fanno vedere l'arrivo del R400 come futuro... però per voi che siete neutrali imparziali ecc... è normale... la fantastica Ati combatterà contro la misera nVidia sfoderando una nuova scheda grafica basata sul R400 e nVidia risponderà con il vecchio NV35 che già possiede.
Questo mi sembra semplicemente stupido e potrebbe accadere solo se l'R400 uscisse presto e si rivelasse poco avanzato tecnologicamente e quindi nVidia potrebbe decidere di aspettare a rilasciare Nv40... ma siccome i tempi di arrivo del R400 non sembrano imminenti...

quindi tornando al discorso noto con piacere la vostra imparzialità :rolleyes: di gridare allo scandalo se si dice che l'NV35 attualmente esistente dovrebbe scontrarsi con l'NV30... quando ovviamente vi va benissimo pensare ad un R400 vs NV35.

quindi l'ho detto con ironia e sarcasmo per far notare come per quanto si possa dire il contrario... almeno un po di tifo c'è...
del resto tu non ti sei certo sognato di quotare la frase in cui un tifoso Ati lasciava travedere un R400 vs N35... perchè non hai quotato a quello dicendo: scherzi? :p

sanitarium
09-04-2003, 15:04
Originally posted by "DoomIII"



se hai letto tutto il mio commento quello che dico dopo dovrebbe chiarire le idee:



quindi diciamo che in parte è una scherzo... ma dipende molto da cosa si intende per scontrarsi/confronto ecc...
e non è affatto detto che anche da un punto di vista di mercato i 2 prodotti non vadano a scontrarsi...

e soprattutto l'ho detto perchè è sempre bello notare l'imparzialità delle persone... dire che l'R400 si scontrerà con l'NV35 vi è normale... lo accettate con naturalezza... l'R400 sarà nuovissimo mentre l'NV35 è già stato presentato... Ati ha comunicato di decellerare il processo produttivo e sono segnali che fanno vedere l'arrivo del R400 come futuro... però per voi che siete neutrali imparziali ecc... è normale... la fantastica Ati combatterà contro la misera nVidia sfoderando una nuova scheda grafica basata sul R400 e nVidia risponderà con il vecchio NV35 che già possiede.
Questo mi sembra semplicemente stupido e potrebbe accadere solo se l'R400 uscisse presto e si rivelasse poco avanzato tecnologicamente e quindi nVidia potrebbe decidere di aspettare a rilasciare Nv40... ma siccome i tempi di arrivo del R400 non sembrano imminenti...

quindi tornando al discorso noto con piacere la vostra imparzialità :rolleyes: di gridare allo scandalo se si dice che l'NV35 attualmente esistente dovrebbe scontrarsi con l'NV30... quando ovviamente vi va benissimo pensare ad un R400 vs NV35.

quindi l'ho detto con ironia e sarcasmo per far notare come per quanto si possa dire il contrario... almeno un po di tifo c'è...
del resto tu non ti sei certo sognato di quotare la frase in cui un tifoso Ati lasciava travedere un R400 vs N35... perchè non hai quotato a quello dicendo: scherzi? :p

Veramente io ritengo assurdo anche il confronto R400 vs NV35, ma a quanto pare tu hai già tirato le tue conclusioni bollandomi come tifoso... E' bello vedere che anche da parte tua c'è molta imparzialità.

cdimauro
09-04-2003, 16:01
Con le soluzioni proprietarie non si va certo avanti: è con gli standard che si aprono le porte al progresso...

Per quanto riguarda la questione dei driver "taroccati" da nVidia, non sono certo il primo a dirlo: basta farsi un giretto e trovare delle prove che evidenziano chiaramente come con alcuni driver si è assistito ad un netto boost prestazionale... Ma a discapito della qualità, com'è visibile dai numerosissimi screenshot comparativi.

Se poi uno vuol continuare a vedere, sono fatti suoi...

Quanto al software proprietario che dovrebbe sfruttare meglio l'NV30 e offrire delle prestazioni superiori rispetto alle altre architetture (R300/350 in particolare), leggetevi le interviste a Carmack sulla sua ultima "creatura" (Doom3, ovviamente): l'NV30-path è sicuramente più veloce, ma la qualità del rendering viene forzata a 16 bit (quindi 64 bit) contro i 32 bit (128bit) sbandierati tanto da nVidia, mentre i concorrenti sfruttano i 24 bit per canale...
A ciò aggiungiamo anche il fatto che il codice "generico" (AB2) gira due volte più velocemente su R300 che su NV30 e le conclusioni di ciò le può trarre chiunque...

Il Trueform presenta dei difetti perché non è stato implementato correttamente: di giochi con engine appositamente realizzati per sfruttare le n-patch nativamente non ne ho mai visti in giro. Esistono al più delle patch rilasciate dalle software house per abilitare le superfici curve nei loro giochi, ma così facendo è ovvio che vengano introdotti degli artefatti.
Infatti mi aspetto per il futuro di vedere delle applicazioni che sfruttino finalmente appieno sia le n-patch che il displacemente mapping hardware sia per aumentare la qualità visiva delle scene sia per diminuire nettamente il carico di lavoro della CPU... Altrimenti che senso ha parlare di GPU che sgravano il processore dal calcolo delle scene 3D quando il numero di triangoli da calcolare cresce sempre piu? In questo modo si forzano gli utenti a comprare CPU sempre più pompate...

Infine, gli shader sono delle grandi invenzioni, ma non esistono solo quelle e tante altre innovazioni realizzate da altre case hanno apportato e apporteranno significativi miglioramente qualitativi (mi riferisco a quelli che ho citato). Come programmatore è chiaro che gli shader hanno un occhio di riguardo, perché si tratta di realizzare dei programmi ad hoc per una nuova architettura. Ma con ciò non posso certamente sottovalutare tutti gli altri elementi! Al contrario, proprio perché sono un programmatore mi piace apprezzare e valutare OGNI elemento, dandogli il giusto il peso...

P.S. Non ci tengo a innalzare trofei alla Ati: a gennaio ho comprato una scheda madre con nForce2 e una GeForce2 MX 400. Non mi sono mai legato mani e piedi a una marca, per cui mi posso permettere il lusso di parlare di qualunque cosa senza remore o fobie da utente fanatico...

DoomIII
09-04-2003, 23:17
Originally posted by "cdimauro"

Con le soluzioni proprietarie non si va certo avanti: è con gli standard che si aprono le porte al progresso...

Per quanto riguarda la questione dei driver "taroccati" da nVidia, non sono certo il primo a dirlo: basta farsi un giretto e trovare delle prove che evidenziano chiaramente come con alcuni driver si è assistito ad un netto boost prestazionale... Ma a discapito della qualità, com'è visibile dai numerosissimi screenshot comparativi.

Se poi uno vuol continuare a vedere, sono fatti suoi...


purtroppo nVidia ha preso esempio da Ati che in tal senso è maestra ed imbattibile. :p

;)

cmq non mi riferivo a driver taroccati ma a driver che proprio in virtù dell'architettura evoluta:

the NV30 is twitchy enough to require more serious analysis and scheduling, which is why they expect significant improvements with later drivers. (J.Carmcak)
[/]

[i]Originally posted by "cdimauro"


Quanto al software proprietario che dovrebbe sfruttare meglio l'NV30 e offrire delle prestazioni superiori rispetto alle altre architetture (R300/350 in particolare), leggetevi le interviste a Carmack sulla sua ultima "creatura" (Doom3, ovviamente): l'NV30-path è sicuramente più veloce, ma la qualità del rendering viene forzata a 16 bit (quindi 64 bit) contro i 32 bit (128bit) sbandierati tanto da nVidia, mentre i concorrenti sfruttano i 24 bit per canale...
A ciò aggiungiamo anche il fatto che il codice "generico" (AB2) gira due volte più velocemente su R300 che su NV30 e le conclusioni di ciò le può trarre chiunque...


hmmm... qui mi deludi... parti bene spiegando anche se nascondi alcune cose... ma poi invece non spieghi perchè la soluzione nVidia è + lenta... e lo è per lo stesso motivo per qui l'altra è più veloce... questione di bit.


so when Nvidia runs fragment programs, they are at a higher precision than ATI's, which is some justification for the slower speed. Nvidia assures me that there is a lot of room for improving the fragment program performance with improved driver compiler technology.


vi ricordo:

In terms of Performance :
NV30+NV30-path is faster than NV30+ARB2
NV30+NV30-path is faster than R300+ARB2
R300+ARB2 is faster than NV30+ARB2
R300+R200-path is faster than R300+ARB2

In terms of Quality :
NV30+ARB2 is better than NV30+NV30-path
NV30+ARB2 is better than R300+ARB2
R300+ARB2 is better than NV30+NV30-path
R300+ARB2 is better than R300+R200-path


e riguardo alla qualità nella soluzione nVidia più veloce che tu lasci intendere abbia una qualità nettamente inferiore:

There is no discernable quality difference, because everything is going into an 8 bit per component framebuffer
The quality differences on the ARB2 path are really not all that significant
(J.Carmcak)


Originally posted by "cdimauro"


Il Trueform presenta dei difetti perché non è stato implementato correttamente: di giochi con engine appositamente realizzati per sfruttare le n-patch nativamente non ne ho mai visti in giro. Esistono al più delle patch rilasciate dalle software house per abilitare le superfici curve nei loro giochi, ma così facendo è ovvio che vengano introdotti degli artefatti.

non è proprio così... non è questione di implementazione , da problemi in parallelo con certi processi(ad esempio luci&ombre dinamiche).

Originally posted by "cdimauro"


Infatti mi aspetto per il futuro di vedere delle applicazioni che sfruttino finalmente appieno sia le n-patch che il displacemente mapping hardware sia per aumentare la qualità visiva delle scene sia per diminuire nettamente il carico di lavoro della CPU... Altrimenti che senso ha parlare di GPU che sgravano il processore dal calcolo delle scene 3D quando il numero di triangoli da calcolare cresce sempre piu? In questo modo si forzano gli utenti a comprare CPU sempre più pompate...


ci sono altre tecniche ben più interessanti per tenere il numero di poligoni basso ed aumentare il dettaglio... il motivo per cui il numero di poligoni cresce sempre più e proprio in virtù del vecchio T&L che continua ad essere lo standard.
Originally posted by "cdimauro"


Infine, gli shader sono delle grandi invenzioni, ma non esistono solo quelle e tante altre innovazioni realizzate da altre case hanno apportato e apporteranno significativi miglioramente qualitativi (mi riferisco a quelli che ho citato). Come programmatore è chiaro che gli shader hanno un occhio di riguardo, perché si tratta di realizzare dei programmi ad hoc per una nuova architettura. Ma con ciò non posso certamente sottovalutare tutti gli altri elementi! Al contrario, proprio perché sono un programmatore mi piace apprezzare e valutare OGNI elemento, dandogli il giusto il peso...

P.S. Non ci tengo a innalzare trofei alla Ati: a gennaio ho comprato una scheda madre con nForce2 e una GeForce2 MX 400. Non mi sono mai legato mani e piedi a una marca, per cui mi posso permettere il lusso di parlare di qualunque cosa senza remore o fobie da utente fanatico...

bè, gli shader nuova architettura... è passato un po di tempo dalla presentazionde della Gef3... dove è stato mostrato per la prima volta DoomIII e lo dico indicando che cmq prima che la stessa fosse presentata alcuni sviluppatori potevano già lavorarci.
Capisco il tuo punto di vista ma il fatto è che le 2 cose, T&L cioè fixed function e gli shader, non solo complementari... non sono compatibili...
quello che tu dici che ti piace per i programmatori è un incubo!!!
bisogna scegliere se programmare a mezzo fixed function o shader e tenendo conto del mercato si utilizzano le fixed function e marginalmente gli shader... ma tutte queste fasi di compatibilità ecc... non sono proprio entusiasmanti per un programmatore...
sarebbe anche ora che gli shader diventassero lo standard...

cdimauro
10-04-2003, 07:00
Originally posted by "DoomIII"



cmq non mi riferivo a driver taroccati ma a driver che proprio in virtù dell'architettura evoluta:

the NV30 is twitchy enough to require more serious analysis and scheduling, which is why they expect significant improvements with later drivers. (J.Carmcak)
[/]

La questione dei driver che non sfruttano appieno la nuova architettura non è che mi abbia convinto più di tanto: possibile che in un anno e passa proprio nVidia, invidiata :) per la capacità di sviluppare degli ottimi driver, non abbia avuto il tempo di tirarne fuori alcuni decenti per la sua nuova creatura? E se veramente non c'è riuscita in un anno perché l'architettura è troppo complicata e/o evoluta, quanto tempo ci vorrà? E soprattutto, quando (e se) arriverà il software che la sfrutta decentemente?


hmmm... qui mi deludi... parti bene spiegando anche se nascondi alcune cose... ma poi invece non spieghi perchè la soluzione nVidia è + lenta... e lo è per lo stesso motivo per qui l'altra è più veloce... questione di bit.

Mi pareva che il discorso forse più che esplicativo in merito: i numerini non li ho messi lì per niente, no? ;)


[I]
so when Nvidia runs fragment programs, they are at a higher precision than ATI's, which is some justification for the slower speed. Nvidia assures me that there is a lot of room for improving the fragment program performance with improved driver compiler technology.


Cioè? Utilizzano già il compilatore Cg nei driver per l'NV30? In questo caso dovresti sapere che un compilatore non può certo fare miracoli nell'ottimizzazione del codice per un'architettura: esiste una vastissima biblioteca in materia (una delle più "vecchie" e trattate nel campo dell'informatica, tra l'altro).

Poi vedi sopra: quanto tempo ci vorrà per tirare fuori dei driver decenti?


vi ricordo:

In terms of Performance :
NV30+NV30-path is faster than NV30+ARB2
NV30+NV30-path is faster than R300+ARB2
R300+ARB2 is faster than NV30+ARB2
R300+R200-path is faster than R300+ARB2

In terms of Quality :
NV30+ARB2 is better than NV30+NV30-path
NV30+ARB2 is better than R300+ARB2
R300+ARB2 is better than NV30+NV30-path
R300+ARB2 is better than R300+R200-path


Appunto. Più velocità = meno qualità.


e riguardo alla qualità nella soluzione nVidia più veloce che tu lasci intendere abbia una qualità nettamente inferiore:

There is no discernable quality difference, because everything is going into an 8 bit per component framebuffer
The quality differences on the ARB2 path are really not all that significant
(J.Carmcak)

Beh, innazitutto l'R300 (e mi pare anche l'NV30) è dotato di RAMDAC a 10 bit, per cui potrebbe benissimo essere sfruttato per migliorare la qualità visiva all'utente finale. E in questo caso, con 16 bit, rimarrebbero soltanto 6 bit di precisione per i calcoli, e mi sembrano veramente pochini...

Poi c'è il fatto che la maggior precisione non è certo stata introdotta per venire "castrata" da un framebuffer ad 8 bit: i pixel shader sono dei programmi che iterano più volte sulle componenti dei colori, per cui il maggior numero di bit evita che l'accumulo di dati e/o arrotondamenti dei tanti calcoli applicati sequenzialmente venga limitato al minimo o evitato. Tanto più se si utilizzano funzioni trigonometriche/logaritmiche, la cui imprecisione può farsi sentire già dopo pochi calcoli.

Altrimenti non mi spiego perché sono stati introdotti ed osannati i famosi 32 bit per canale, quando poi il software ne usa 16: solo per fare scena? Mi pare, tra l'altro, che le famose immagini che nVidia ha fatto circolare per la rete già da parecchi mesi fosse altamente esplicative per quanto riguarda le differenza fra immagini 3D generate con un maggior numero di bit...


non è proprio così... non è questione di implementazione , da problemi in parallelo con certi processi(ad esempio luci&ombre dinamiche).

Mah. Non entro nel dettaglio perché non ho conoscenza in materia e non ti posso rispondere. Sulla carta le superfici curve non dovrebbero aver alcun problema neppure con le ombre: almeno all'università e nei testi di computer grafica non se n'è mai fatto cenno. Esistono dei software per worstation che utilizzano adirittura i solidi di rotazione per la generazione di superfici curve con pochissimi vertici e non mi sembra che abbiano avuto mai problemi. Comunque, se capiterà l'occasione, mi documenterò meglio...


ci sono altre tecniche ben più interessanti per tenere il numero di poligoni basso ed aumentare il dettaglio... il motivo per cui il numero di poligoni cresce sempre più e proprio in virtù del vecchio T&L che continua ad essere lo standard.

Francamente non ho idea di cosa far diminuire di qualche ordine di grandezza il numero dei triangoli meglio delle superifici curve e del displacemente mapping hardware...


bè, gli shader nuova architettura... è passato un po di tempo dalla presentazionde della Gef3... dove è stato mostrato per la prima volta DoomIII e lo dico indicando che cmq prima che la stessa fosse presentata alcuni sviluppatori potevano già lavorarci.

Infatti: non sono cosa perché la GF3 è presente da tempo, ma a livello di utilizzo siamo ancora agli albori...


Capisco il tuo punto di vista ma il fatto è che le 2 cose, T&L cioè fixed function e gli shader, non solo complementari... non sono compatibili...
quello che tu dici che ti piace per i programmatori è un incubo!!!

E che ho detto di tanto terribile?!? :) Ho soltanto detto che mi piacerebbe che i nuovi engine cominciassero ad utilizzare le nuove funzionalità presenti già a partire dalle DX 8 (shader e superifici curve) e nelle DX 9 (displacement mapping hardware), così da rendere il carico sulla CPU MOLTO più leggero...

E' chiaro che non è assolutamente ipotizzabile che lo stesso engine possa funzionare sia con le schede DX 7 (fixed function T & L) che con quelle nuove: sono cose completamente diverse... ;)


bisogna scegliere se programmare a mezzo fixed function o shader e tenendo conto del mercato si utilizzano le fixed function e marginalmente gli shader...

Il mercato però è già saturo di soluzioni DX 8 & 8.1. E Ati ha già venduto più di un milione di schede basata sull'R300...

ma tutte queste fasi di compatibilità ecc... non sono proprio entusiasmanti per un programmatore...
sarebbe anche ora che gli shader diventassero lo standard...

Più che altro sarebbe ora che fossero utilizzati a piene mani, assieme a tutte le altre caratteristiche, che io ritengo anche più importanti per le ricadute immediate che possono apportare in termini qualitativi e di (ridottissimo) impatto prestazionale...

sanitarium
10-04-2003, 08:38
Originally posted by "DoomIII"

purtroppo nVidia ha preso esempio da Ati che in tal senso è maestra ed imbattibile. :p

;)

Quando si fanno certe affermazioni, come minimo bisogna essere pronti a fornire esempi e prove a riguardo. Ce li potresti portare, per favore?

E la prossima volta, prima di dare dei tifosi agli altri (non solo a me, ma in generale), guarda bene ciò che scrivi tu per primo.

P.S.: Noto con piacere che porti come esempio soltanto ciò che dice il sig. Carmack. Da quando ciò che dice lui è verbo sacro?

P.S. 2: La modalità NV30 fa girare DoomIII a 64-bit, vero? R300 invece lo fa girare a 96-bit, vero? Se è così, vorrei vedere il tanto arretrato R300 come farebbe girare DoomIII a 64-bit, anziché a 96-bit.

DoomIII
10-04-2003, 10:41
Originally posted by "sanitarium"



Quando si fanno certe affermazioni, come minimo bisogna essere pronti a fornire esempi e prove a riguardo. Ce li potresti portare, per favore?

E la prossima volta, prima di dare dei tifosi agli altri (non solo a me, ma in generale), guarda bene ciò che scrivi tu per primo.


secondo te sono tifoso perchè cito fatti realmente accaduti?

ma lol... certo come no... quindi tu eri uno di quelli che postava entusiasta per il mondo dopo i driver Ati che fecero tanto scalpore per le performance prima di scoprire che abbassavano drasticamente la qualità... ma tu non ti ricordi niente vero? non è mai accaduto?
e impossibile che tu non lo sappia... quindi visto che neghi l'evidenza non è che si possa poi discutere...

Originally posted by "sanitarium"


P.S.: Noto con piacere che porti come esempio soltanto ciò che dice il sig. Carmack. Da quando ciò che dice lui è verbo sacro?



no no... ma quando mai... ovviamente come fai capire tu Carmack è un incapace che non capisce niente... perchè mai quello che lui dice dovrebbe essere importante o vero? invece quello che dici tu sicuramente è un messaggio divino... altro che le scemenze di Carmack...
ma chi sarà mai Carmack per parlare di schede grafiche? ma perchè mai nVidia e Ati gli mandano sample delle loro schede grafiche e usufruiscono della sua collaborazione? che stupide nVidia ed Ati... dovrebbero mandare a te i sample... tu si che te ne intendi...

ovviamente la tua domanda sarebbe proprio da rigirarla a nVidia ed Ati e chiedere a loro come mai si basano su quanto dice Carmack... perchè gli mandano i sample ecc...

:D :D
Originally posted by "sanitarium"



P.S. 2: La modalità NV30 fa girare DoomIII a 64-bit, vero? R300 invece lo fa girare a 96-bit, vero? Se è così, vorrei vedere il tanto arretrato R300 come farebbe girare DoomIII a 64-bit, anziché a 96-bit.

J.C. ha indicato quali possibilità hardware ci sono per R300 e per NV30 di far girare DoomIII... non è una questione di software fatto o non fatto...

ho già risposto più volte... NV30 è molto flessibile anche in queste circostanze cosa che R300 non è... la tua domanda/considerazione sopra è relativa perchè necessiterebbe di una revisione architetturale al R300 e quindi un chip diverso... smettete con questi discorsi per nVidia ottimizzano per Ati no, il chip nVidia architetturalmente è molto più flessibile e proprio per questo i driver possono fare una grande differenza...

sanitarium
10-04-2003, 11:17
Originally posted by "DoomIII"



secondo te sono tifoso perchè cito fatti realmente accaduti?

ma lol... certo come no... quindi tu eri uno di quelli che postava entusiasta per il mondo dopo i driver Ati che fecero tanto scalpore per le performance prima di scoprire che abbassavano drasticamente la qualità... ma tu non ti ricordi niente vero? non è mai accaduto?
e impossibile che tu non lo sappia... quindi visto che neghi l'evidenza non è che si possa poi discutere...

Ti ho già detto che la 9700pro è la mia prima scheda ATi, ma tu da quell'orecchio sembra che non ci senti... Ti riferisci all'episodio di Quake 3? Quello è stato un episodio, ma da come la metti tu ATi non fa altro che abbassare la qualità dei driver per aumentare la velocità. E comunque hai buttato tutto sulla tifoseria, tanto per cambiare, evitando di rispondere a ciò che ti ho chiesto. Pazienza.

no no... ma quando mai... ovviamente come fai capire tu Carmack è un incapace che non capisce niente... perchè mai quello che lui dice dovrebbe essere importante o vero? invece quello che dici tu sicuramente è un messaggio divino... altro che le scemenze di Carmack...
ma chi sarà mai Carmack per parlare di schede grafiche? ma perchè mai nVidia e Ati gli mandano sample delle loro schede grafiche e usufruiscono della sua collaborazione? che stupide nVidia ed Ati... dovrebbero mandare a te i sample... tu si che te ne intendi...

ovviamente la tua domanda sarebbe proprio da rigirarla a nVidia ed Ati e chiedere a loro come mai si basano su quanto dice Carmack... perchè gli mandano i sample ecc...

:D :D

Evidentemente ti piace stravolgere il significato di quello che dice la gente che la pensa diversamente da te. Io ho detto che ciò che dice Carmack non è bibbia, tu hai detto che io ritengo Carmack un incompetente. Certo che ce ne vuole a stravolgere così le parole degli altri...
Bene, comunque ora sappiamo che per te Carmack è Dio. Sono felice per te.

J.C. ha indicato quali possibilità hardware ci sono per R300 e per NV30 di far girare DoomIII... non è una questione di software fatto o non fatto...

ho già risposto più volte... NV30 è molto flessibile anche in queste circostanze cosa che R300 non è... la tua domanda/considerazione sopra è relativa perchè necessiterebbe di una revisione architetturale al R300 e quindi un chip diverso... smettete con questi discorsi per nVidia ottimizzano per Ati no, il chip nVidia architetturalmente è molto più flessibile e proprio per questo i driver possono fare una grande differenza...

Tanto come la volti e come la giri, indipendentemente dalla domanda, tu dici sempre la stessa cosa: NV30 è molto più avanti di R300-350. Quindi è con te che è inutile parlare. Convinto tu...
Comunque per me la discussione è finita, non parlo con chi rigira le frittate a suo piacimento. Non vale la pena scannarsi per delle schede video.

Raven
10-04-2003, 11:45
Originally posted by "sanitarium"


Non vale la pena scannarsi per delle schede video.

... esatto! ;)

yossarian
10-04-2003, 14:23
Carmack è indubbiamente un genio della progettazione SW ma, quando inizia a parlare di architetture HW, si avventura in un campo, per lui, minato. Quindi portarlo come esempio quando fa affermazioni categoriche sulla presunta maggior efficacia (a condizione che........, a condizione che........; nel caso si verificasse............) di un'architettura rispetto ad un'altra, non va certo preso sul serio.

DoomIII
10-04-2003, 22:00
Originally posted by "sanitarium"



Ti ho già detto che la 9700pro è la mia prima scheda ATi, ma tu da quell'orecchio sembra che non ci senti... Ti riferisci all'episodio di Quake 3? Quello è stato un episodio, ma da come la metti tu ATi non fa altro che abbassare la qualità dei driver per aumentare la velocità. E comunque hai buttato tutto sulla tifoseria, tanto per cambiare, evitando di rispondere a ciò che ti ho chiesto. Pazienza.


da come la metto io? ma hai letto bene ciò che ho scritto? mi riferivo a quell'episodio e mi sembra abbastanza scherzoso rispondere a chi dice che nVidia rilascia driver taroccati dicendo che questa a preso esempio da Ati... non serve arrabbiarsi tanto... e se non capisci quando si scherza......... ti capisco perchè su un forum non è facile :D :D

Originally posted by "sanitarium"


Evidentemente ti piace stravolgere il significato di quello che dice la gente che la pensa diversamente da te. Io ho detto che ciò che dice Carmack non è bibbia, tu hai detto che io ritengo Carmack un incompetente. Certo che ce ne vuole a stravolgere così le parole degli altri...
Bene, comunque ora sappiamo che per te Carmack è Dio. Sono felice per te.


bè, in un certo senso mi diverte :p ma non è proprio stravolgere... è solo girare la faccia della moneta che l'altro mi porge e non vede...
Carmack un Dio? per me è sicuramente un grande... un Dio assolutamente no!
Non credo sia uno stupido e penso che molti qui lo citerebbero se direbbe che nVidia fa schifo e Ati è una figata.... ;)

Originally posted by "sanitarium"


Tanto come la volti e come la giri, indipendentemente dalla domanda, tu dici sempre la stessa cosa: NV30 è molto più avanti di R300-350. Quindi è con te che è inutile parlare. Convinto tu...
Comunque per me la discussione è finita, non parlo con chi rigira le frittate a suo piacimento. Non vale la pena scannarsi per delle schede video.

OK , non c'è problema... io cmq rispondo non mi scanno assolutamente... e ripeto che IMHO NV30 come shader è più avanti del R300 e che personalmente sono più impressionato o entusiasta delle novità nVidia... e nuovamente ripeto che commercialmente ritengo gli ultimi prodotti Ati più che validi in considerazione del software che c'è con quindi delle scelte commerciali più che azzeccate da parte di Ati.

Ovviamente mi sembra che alcuni tifosi Ati vogliano che si dica: Ati è meglio, è più veloce, più performante, più conveniente, regina del mercato, prima in assoluto, più avanti tecnologicamente ecc... ecc...
guai se qualcuno si permette di evidenziare che in qualche aspetto nVidia non è così mal messa come si vuol far vedere... subito pronti a quotare ed inveire gridando allo scandalo... :rolleyes:

DoomIII
10-04-2003, 22:06
Originally posted by "yossarian"

Carmack è indubbiamente un genio della progettazione SW ma, quando inizia a parlare di architetture HW, si avventura in un campo, per lui, minato. Quindi portarlo come esempio quando fa affermazioni categoriche sulla presunta maggior efficacia (a condizione che........, a condizione che........; nel caso si verificasse............) di un'architettura rispetto ad un'altra, non va certo preso sul serio.

vabbè... insomma... non va preso sul serio è un po grossa... e allora chi sarebbe da prendere sul serio?

ricordiamo che DoomIII è il primo software shader-oriented e che i commenti riportati su J.C. si riferiscono cmq al funzionamento di DoomIII sulle schede Ati ed nVidia... schede che J. riceve dai produttori e con i quali collabora... Ati ed nVidia considerano prezioso il feedback ricevuto... ed invece secondo te non sarebbe da prenderlo sul serio? e allora perchè mai Ati e nVidia vi si basano mandando sample ecc...?
cmq non è che abbia parlato di cose che non lo competono... ci si riferisce sempre a DoomIII... quando ha detto che sulla sua postazione principale c'è un NV30 ( adesso ci sarà un NV35 :D ) e che lo preferisce perchè del R300 ha già raggiunto i limiti secondo te non è da prendere sul serio?
se vuoi puoi dire che è un programmatore incompetente e che un altro programmatore più bravo non troverebbe questi limiti che J.C. ha trovato solo per sua incompetenza... ovviamente questa sarebbe la tua rispettabile opinione...
ma J.C. nello sviluppo di DoomIII li ha raggiunti.

DjLode
11-04-2003, 00:51
Dai, un pò come quando aveva dimostrato di intendersene tanto di hw da dire che le Ati (8500 se non sbaglio) avevano un tale problema hw irrisolvibile... irrisolvibile a tal punto da essere corretto in 3 giorni in una nuova release dei driver. Qualcuno con più memoria di me sa sicuramente di cosa sto parlando.
Cmq una cosa c'è da dire... lui in un gioco che non esiste (se non in una alpha che niente avrà a che vedere con la versione finale) ha già raggiunto i limiti dell'R300... deve essere un fenomeno :)
A parte questo una domanda vorrei fare, non capisco come mai tu abbia ripetuto più di una volta che non ha senso benchare l'NV30 con il software attuale perchè non "va bene". E allo stesso tempo dici che non è un flop.
Ora, logicamente parlando, faccio un chip che non va bene con il software attuale. Io non mi scrivo il software, ci faccio girare quello attuale o immediatamente futuro che altri scrivono per me. Questi sw non sfruttano l'NV30. Quindi non ha senso fare dei bench con questo software. Allora mi spieghi a cosa cacchio serve l'NV30? Se dimostrerà quello che vale con il software futuro potevano saltarlo completamente (forse ci avevano pensato, ecco il motivo del ritardo).
Cmq volente o nolente le schede si giudicano da che mondo è mondo con i bench. Tu magari dirai che l'NV30 è migliore e che a pelle ti piace di più (ti hanno chiesto spiegazioni del perchè hai citato a destra e a manca, ma senza argomentazioni non abbiamo capito perchè è migliore), altri diranno che l'R300/350 è migliore perchè è più veloce. Perchè gli altri sono Atiisti e tu invece dispensi il verbo sacro senza scadere nel tifo?
Permetti, senza offesa, come ti hanno già fatto notare, gira e rigira a parte tirare fuori sempre le solite tre cose (carmack ha detto, rapporto 1:7 e migliore flessibilità), rigiri le cose come vuoi. Non è molto educativo...

DoomIII
11-04-2003, 09:50
Originally posted by "DjLode"

Dai, un pò come quando aveva dimostrato di intendersene tanto di hw da dire che le Ati (8500 se non sbaglio) avevano un tale problema hw irrisolvibile... irrisolvibile a tal punto da essere corretto in 3 giorni in una nuova release dei driver. Qualcuno con più memoria di me sa sicuramente di cosa sto parlando.
Cmq una cosa c'è da dire... lui in un gioco che non esiste (se non in una alpha che niente avrà a che vedere con la versione finale) ha già raggiunto i limiti dell'R300... deve essere un fenomeno :)

bè, qui scusa ma mi sembri un tantino arrogante... DoomIII lo sta facendo lui... e lo sviluppo del motore grafico è una cosa... l'alpha di un gioco è un'altra... l'ho già detto... se vuoi puoi dire che per tuoi opinione personale J.C. è un incompetente che non capisce niente... e di conseguenza puoi giurare che facendo i suoi prodotti schifo non giocherai mai a niente che sia stato sviluppato da lui... ne DoomIII ne i giochi che sfrutteranno il suo motore ne i giochi futuri :p
quindi... accetterei che tu dica che per tua opinione J.C. non capisce niente è un incompetente e per questo ha detto che ha raggiunto i limiti del R300... ma invece non posso certo accettare quanto dici sopra che non ha nessun senso:

Originally posted by "DjLode"


lui in un gioco che non esiste (se non in una alpha che niente avrà a che vedere con la versione finale) ha già raggiunto i limiti dell'R300... deve essere un fenomeno :)

ma sinceramente che cavolo vuol dire? sembra che tu stia sfottendo un utente qualsiasi che si è scaricato l'alpha e giocandoci dice: si sono raggiunti i limiti del R300... invece si tratta di J.C. sviluppatore di DoomIII o meglio del motore grafico... e ad ogni modo se fosse cosi incompetente come volete far credere non riceverebbe certo sample da parte di nVidia ed Ati e la sua collaborazione non sarebbe così stimata dai professionisti.

Originally posted by "DjLode"


A parte questo una domanda vorrei fare, non capisco come mai tu abbia ripetuto più di una volta che non ha senso benchare l'NV30 con il software attuale perchè non "va bene". E allo stesso tempo dici che non è un flop.


hmmm... non giriamo le carte in tavola... ho detto che non ha senso giudicare il supporto hardware a nuove estensioni come le DX9 o cmq i miglioramenti hw negli shader fatti da nVidia con il software ed i bench che circolano... è semplicemente ovvio... se il software non sfrutta quell'hw non può essere giudicato dai risultati bench dello stesso.

per quanto riguarda il discorso flop, penso che un flop sia un qualcosa di assolutamente negativo... che non vende ecc...
come più volte ho indicato non nego certo i problemi del NV30... ma sinceramente da qui a giudicarlo un flop ho semplicemente detto che è troppo presto per dare un giudizio simile in un momento particolare come questo... vedremo quanto venderà... ma ammesso che Ati venda di più, sia più conveniente e più performante questo non basta a fare del NV30 un flop.
Le soluzioni professionali basate sul NV30 ad esempio mi sembra siano molto apprezzate... e cmq bisogna ancora vedere il mercato se snobberà il prodotto e sa nVidia farà cmq le sue vendite ed in tal caso non si potrebbe certo parlare di flop.

E poi il discorso è semplice... allora secondo te sin'ora Ati ha sempre fatto flop e questa è la prima volta che fa una scheda decente?
Io non lo credo ... per quanto ci sia da dire che Ati ha migliorato molto in tutti gli aspetti (supporto,driver,prestazioni ecc....) i suoi prodotti precedenti non possono certo essere considerati flop se hanno venduto meno o avevano meno prestazioni...

Originally posted by "DjLode"


Ora, logicamente parlando, faccio un chip che non va bene con il software attuale. Io non mi scrivo il software, ci faccio girare quello attuale o immediatamente futuro che altri scrivono per me. Questi sw non sfruttano l'NV30. Quindi non ha senso fare dei bench con questo software. Allora mi spieghi a cosa cacchio serve l'NV30? Se dimostrerà quello che vale con il software futuro potevano saltarlo completamente (forse ci avevano pensato, ecco il motivo del ritardo).


bè, l'ho sempre detto che adesso per chi non ne ha stretta necessità non consiglierei l'acquisto di nessuna scheda grafica... ed ho anche detto che come Ati ha fatto una buonissima scelta di mercato... poi da appassionato del campo IMHO preferisco le novità nVidia ben consapevole che per un consumatore standard attualmente siano irrilevanti... però ripeto non si può poi pretendere di giudicare queste novità se non sono utilizzate nè tanto meno negare che ci siano se non si è informati.

Ad ogni modo quando è uscita la Gef3 non c'era anche all'epoca sw che la sfruttase e c'è voluto un bel po di tempo perchè si potesse vedere (e intanto siamo arrivati alla Gef4) qualche titolo che sfrutti almeno marginalmente la potenzialità degli shader... quindi come vedi siamo da un bel po di tempo in una situazione particolare... del resto per sviluppare un motore grafico ed un titolo ci vuole molto tempo... quando è uscita la Gef3 gli sviluppatori erano impegnati in motori T&L e anche in considerazione del mercato (ancora adesso non si possono ignorare le schede T&L prive di shader che ammontano ad un bel numero e non sarebbero in grado di far girare software shader-oriented) il software è andato a rilento... i 2 motori più importanti su cui poi vengono sviluppati molti giochi sono sempre stati quelli di casa Unreal e J.C.
J.C. non ha problemi di soldi e sviluppa per passione... quindi può anche permettersi certe scelte e non avere grossi problemi di tempo... altrimenti molto probabilmente DoomIII sarebbe già uscite ed avrebbe avuto un motore fixed-function come è successo per UnrealII.
Sicuramente nVidia non pensava il fixed-function avesse tirato così avanti e sperava in uno sfruttamente migliore degli shader... e sicuramente ci conta per il futuro... perchè a questo punto nVidia farà di tutto per far si che escano titoli che sfruttano le capacità FX.

Originally posted by "DjLode"


Cmq volente o nolente le schede si giudicano da che mondo è mondo con i bench. Tu magari dirai che l'NV30 è migliore e che a pelle ti piace di più (ti hanno chiesto spiegazioni del perchè hai citato a destra e a manca, ma senza argomentazioni non abbiamo capito perchè è migliore), altri diranno che l'R300/350 è migliore perchè è più veloce. Perchè gli altri sono Atiisti e tu invece dispensi il verbo sacro senza scadere nel tifo?
Permetti, senza offesa, come ti hanno già fatto notare, gira e rigira a parte tirare fuori sempre le solite tre cose (carmack ha detto, rapporto 1:7 e migliore flessibilità), rigiri le cose come vuoi. Non è molto educativo...

argomentazioni? le mie spiegazioni le ho date... già sti post sono lunghi... non saprei proprio da dove cominciare... per chi è interessato basta farsi qualche ricerca e studiare... informarsi ecc...
che è migliore non l'ho detto poichè dipende dai punti di vista... come soluzione di mercato l'ho detto all'ennesima potenza che è sicuramente migliora la soluziona Ati... il problema è che mi sembra ci siano alcuni tifosi in giro che pretendono di avere tutto e senza informarsi vogliono per forza che si dica che Ati è meglio in tutto mentre nVidia fa ormai solo insulsi flop... da tifoso che accusate me di essere in tutti i post ho dato quello che penso sia il giusto onore ad Ati e non ho negato i problemi del NV30 ma sono 'insorto' non tanto perchè tecnologicamente lo ritengo più avanti (IMHO) ma semplicemente perchè non accetto che si giudichi in modo ignorante l'hardware nuovo con il software vecchio.
Guarda accetto il tuo discorso quando dici: 'vabbè ma allora NV30 ha hw nuovo ma se non viene sfruttato a che serve?'
ma non accetto che si voglia giudicare la bontà di questo hw con bench che non lo sfruttano.

Poi c'è poco da rigirare... solo perchè il rapporto 1:7 e le altre cose sminuiscono Ati vi sentite offesi? torniamo sempre la... pretendete di avere tutto... guai a dire una cosa negativa su Ati anche se si indicano , da cieco tifoso che sono, i pregi Ati e i difetti nVidia... quotate sempre e solo la frase che vi da fastidio perchè per assurdo si va ad insinuare che NV30 abbia qualcosa in più del R300.

E' per questo che mi sembrate tifosi ed è per questo che vi ho detto che nessuno fermerà poi i tifosi nVidia dal fare casino quando (ed ovviamente se) ci saranno bench diversi.
Del resto io stesso ho iniziato molto alla larga elogiando molto Ati e poi ho iniziato a calcare con i termini la mano perchè mi sono stufato del continuo atteggiamente degli Atisti visti i continui stupidi commenti su tutti i post in cui si parla di NV30 e visto il continuo insergere di Atisti scioccati se non si da la giusta gloria ad Ati.... tutti pronti ad insorgere se in un articolo che alla fine da Ati come vincente tra le righe si parla bene anche del NV30... tutti a gridare allo scandalo... non parliamo poi se qualcuno dice che se uscisse NV35 nVidia tornerebbe regina dei bench... tutti pronti ad inveire ecc... ecc... questo per me è tifo... perchè se non ho acquistato nessuna scheda grafica e mi dicono fra 2 mesi forse esce l'R450... tanto meglio... invece siccome si dice forse esce NV35... tutti a sperare che non esca o che se esce sia un flop... allora per chi la pensa così: sei utente/consumatore o sei un tifoso? :rolleyes:

DjLode
11-04-2003, 11:10
Originally posted by "DoomIII"


bè, qui scusa ma mi sembri un tantino arrogante...


Cacchio da che pulpito viene la predica, stai dando dell'ignorante a destra e a manca e poi sono gli altri gli arroganti? Dalla serie chi predica bene razzola male.

Originally posted by "DoomIII"


DoomIII lo sta facendo lui... e lo sviluppo del motore grafico è una cosa... l'alpha di un gioco è un'altra... l'ho già detto... se vuoi puoi dire che per tuoi opinione personale J.C. è un incompetente che non capisce niente... e di conseguenza puoi giurare che facendo i suoi prodotti schifo non giocherai mai a niente che sia stato sviluppato da lui... ne DoomIII ne i giochi che sfrutteranno il suo motore ne i giochi futuri :p
quindi... accetterei che tu dica che per tua opinione J.C. non capisce niente è un incompetente e per questo ha detto che ha raggiunto i limiti del R300... ma invece non posso certo accettare quanto dici sopra che non ha nessun senso:


Non hai letto bene, non ho giudicato Carmack un incompetente, non ho detto niente in merito alla alpha (ho scritto che è l'unico modo che noi abbiamo di giudicare un gioco che non esiste). Vedi come non leggi le cose? Uno fa una battuta e tu rigiri la frittata, parti in quinta e spari a vanvera cose che nessuno ha detto. Ergo il discorso TUO non ha senso.

Originally posted by "DoomIII"


ma sinceramente che cavolo vuol dire? sembra che tu stia sfottendo un utente qualsiasi che si è scaricato l'alpha e giocandoci dice: si sono raggiunti i limiti del R300... invece si tratta di J.C. sviluppatore di DoomIII o meglio del motore grafico... e ad ogni modo se fosse cosi incompetente come volete far credere non riceverebbe certo sample da parte di nVidia ed Ati e la sua collaborazione non sarebbe così stimata dai professionisti.


Come, tu fai battute senza senso e tutti devono capirle, gli altri ne fanno una e ti incacchi? Chi sono i tifosetti? Tu o gli altri?

Originally posted by "DoomIII"


hmmm... non giriamo le carte in tavola... ho detto che non ha senso giudicare il supporto hardware a nuove estensioni come le DX9 o cmq i miglioramenti hw negli shader fatti da nVidia con il software ed i bench che circolano... è semplicemente ovvio... se il software non sfrutta quell'hw non può essere giudicato dai risultati bench dello stesso.


Guarda che la puoi rigirare come vuoi, ma quello che hai detto sopra è niente altro quello che ho detto io.

Originally posted by "DoomIII"


per quanto riguarda il discorso flop, penso che un flop sia un qualcosa di assolutamente negativo... che non vende ecc...


E su questo siamo d'accordo. E anche sul resto che non quoto per comodità.

Originally posted by "DoomIII"


E poi il discorso è semplice... allora secondo te sin'ora Ati ha sempre fatto flop e questa è la prima volta che fa una scheda decente?


Come, essù, allora ci vuoi fare cretini? Noi siamo tifosi perchè critichiamo una determinata cosa, tu dicendo che la Ati ha fatto la prima scheda decente non sei un tifoso? Ahi ahi ahi ipocrisia portami via :)
Come vedi il giudizio che tutti hanno dato su di te, si rivela esatto, il mio discorso finisce qui. Parlo con la gente che ha qualcosa da dire non che tifa a priori. Mi dispiace.

Originally posted by "DoomIII"


Io non lo credo ... per quanto ci sia da dire che Ati ha migliorato molto in tutti gli aspetti (supporto,driver,prestazioni ecc....) i suoi prodotti precedenti non possono certo essere considerati flop se hanno venduto meno o avevano meno prestazioni...


Cosa fai, correggi il tiro? Prima dici che la 9700 è la prima scheda decente, poi rigiri la frittata e dici un'altra cosa? Vedi sopra.



Originally posted by "DoomIII"


argomentazioni? le mie spiegazioni le ho date... già sti post sono lunghi... non saprei proprio da dove cominciare... per chi è interessato basta farsi qualche ricerca e studiare... informarsi ecc...


Se le ho chieste significa che non le hai date :) So leggere, purtroppo per te.

Originally posted by "DoomIII"


il problema è che mi sembra ci siano alcuni tifosi in giro che pretendono di avere tutto e senza informarsi vogliono per forza che si dica che Ati è meglio in tutto mentre nVidia fa ormai solo insulsi flop... da tifoso che accusate me di essere in tutti i post ho dato quello che penso sia il giusto onore ad Ati e non ho negato i problemi del NV30 ma sono 'insorto' non tanto perchè tecnologicamente lo ritengo più avanti (IMHO) ma semplicemente perchè non accetto che si giudichi in modo ignorante l'hardware nuovo con il software vecchio.


Scusa ma il discorso tifosi non ha senso. TU sei un tifoso NVIDIA come tanti altri lo sono di ATI. Quindi non giudicare gli altri, cerca tu di non esserlo. Vedi frase abbastanza esplicativa della prima scheda decente. E non tirarmi fuori che è una battuta anche se so che avresti la faccia tosta di farlo :)

Originally posted by "DoomIII"


ma non accetto che si voglia giudicare la bontà di questo hw con bench che non lo sfruttano.


Con cosa si giudicano le schede? Con il Sw che esiste. Se no sono illazioni, fantasticherie e non ho la sfera di cristallo :)

Originally posted by "DoomIII"


E' per questo che mi sembrate tifosi ed è per questo che vi ho detto che nessuno fermerà poi i tifosi nVidia dal fare casino quando (ed ovviamente se) ci saranno bench diversi.


Dai del voi (nel senso di tutti gli altri) sia ai tifosi Ati che Nvidia. Quando parli di quelli Nvidia, usa pure il noi. Così uno capisce subito dove stai, visto che cmq la cosa è palese :)

Originally posted by "DoomIII"


allora per chi la pensa così: sei utente/consumatore o sei un tifoso? :rolleyes:

Sono utente, ho una Nvidia presa appena uscita, ho cambiato la mia precedente 7500 che aveva rimpiazzato una Gf2 Mx. Prima avevo una V3, ancora prima una G200. Insomma prendo quello che mi offre (credo) di meglio il mercato al momento. Ma non sto a difendere a spada tratta quello che possiedo. Ho una Gf4? Perchè devo dire che la 9700 fa schifo eccetera? Avessi una 9700 perchè devo dire che l'NV30 fa schifo?
Ora lo chiedo a te, visto quanto emerso sopra sei ancora convinto di essere un utente? Vabbhè che la speranza è l'ultima a morire, ma chi visse sperando....

yossarian
11-04-2003, 12:44
Originally posted by "DoomIII"



vabbè... insomma... non va preso sul serio è un po grossa... e allora chi sarebbe da prendere sul serio?

ricordiamo che DoomIII è il primo software shader-oriented e che i commenti riportati su J.C. si riferiscono cmq al funzionamento di DoomIII sulle schede Ati ed nVidia... schede che J. riceve dai produttori e con i quali collabora... Ati ed nVidia considerano prezioso il feedback ricevuto... ed invece secondo te non sarebbe da prenderlo sul serio? e allora perchè mai Ati e nVidia vi si basano mandando sample ecc...?
cmq non è che abbia parlato di cose che non lo competono... ci si riferisce sempre a DoomIII... quando ha detto che sulla sua postazione principale c'è un NV30 ( adesso ci sarà un NV35 :D ) e che lo preferisce perchè del R300 ha già raggiunto i limiti secondo te non è da prendere sul serio?
se vuoi puoi dire che è un programmatore incompetente e che un altro programmatore più bravo non troverebbe questi limiti che J.C. ha trovato solo per sua incompetenza... ovviamente questa sarebbe la tua rispettabile opinione...
ma J.C. nello sviluppo di DoomIII li ha raggiunti.

Carmack è un programmatore, forse uno dei più bravi nel suo campo; però è meglio che non esca fuori dal suo settore. Il Sw è una cosa, L'HW un'altra e ben distinta: la conoscenza profonda del primo non implica assolutamente la conoscenza del secondo. Quando si progetta un motore grafico ci si basa sulle specifiche teoriche di un determinato HW; ma teoria e pratica spesso non coincidono e la dimostrazione è che nel progettare DoomIII Carmack ha dovuto introdurre una modalità NV30 che non rispetta completamente nemmeno le specifiche DX9 (anche se Doom e OGL). Questo per avere più fps da un HW che, sempre secondo Carmack, era stato preso come modello per l'elaborazione di Doom III. Ora, poichè per la modalità NV30 si parla di maggior velocità e minore qualità rispetto alla ARB2, i casi sono due:
1) Carmack ha progettato un gioco in modalità NV30 (con caratteristiche qualitative inferiori rispetto alla modalità standard) e poi lo ha adattato a girare in modalità standard (e in altre modalità) per farlo girare anche su HW non NV30
2) il gioco è nato in modalità ARB2 ed è stato adattato a girare in altre modalità (compresa la NV30) per venire incontro alle esigenze di chi non aveva un HW adeguato alla modalità standard.
Personalmente sono per la seconda ipotesi.
Se fosse valida la prima, allora un qualunque gioco ARB2 o DX9 avrà qualità superiore al tabto osannato Doom 3 (che come ha detto DjLode non è ancora uscito, e non si sa se e quando uscirà).

cdimauro
11-04-2003, 14:03
A questo punto aggiungo pure la mia: secondo me l'architettura dell'NV30 non è così innovativa rispetto allR300, e specialmente rispetto all'R350. Il motivo? Basta confrontare le estensioni introdotte rispetto alle DX9 implementate dell'R300.

L'unica cosa che QUALITATIVAMENTE è interessante è rappresentata dalla gestione dei loop/subroutine. Per il resto, il fatto che possa eseguire più istruzioni vertex/pixel shader è soltanto un fattore QUANTITATIVO. Il fatto che abbia tutti i registri Floating Point anziché un mix FP/Intero, è anch'esso un fattore QUANTITATIVO. Il fatto che possa utilizzare tutte le funzioni sia per i vertex che per i pixel shader (cioé: le unità FP sono tutte uguali), è anch'esso un fattore QUANTITATIVO. E posso ancora continuare confrontando le restanti caratteristiche.

Un miglioramento di tipo qualitativo implica un diverso modo di sfruttare e gestire una cosa. Avere 65536 istruzioni Vertex Shader anziché 1024 non implica, invece, una diversa metodologia di utilizzo; è come se la memoria fosse passata da 1K a 64K: se sapevo utilizzarne 1K, saprò utilizzarne 64K perché concettualmente per me sono la stessa cosa. Spero che sia chiaro.

Ecco perché non mi convince il fatto che con i futuri driver possano sfruttare meglio l'architettura dell'NV30: non vedremo grandi miglioramenti, e quindi grandi variazioni percentuali...

Resta, poi, il fatto che le standard, e non smetterò mai di riperterlo, sono le DX9, non le 9+ dell'NV30 o le 9++ dell'R350, per cui cose come i loop le subroutine non verranno sfruttati dalle applicazioni...

Se a ciò aggiungiamo anche il fatto che la maggior parte delle applicazioni sono DX7 e poche DX8, arriviamo alla conclusione che l'NV30 non è e non sarà mai una buona architettura.

Infatti, se un gioco sfrutta le DX7, comunque internamente la GPU utilizzerà le sue unità FP/intere per portare a termine le operazioni. Infatti le unità FP/Intere sono condivise da qualunque tipo di "codice" che viene fatto girare, sia fixed-function sia shader 8/9. L'NV30 è così scarso rispetto al clock di 500Mhz, perché molto probabilmente le unità FP/Intere sono DI MENO rispetto all'R300. Infatti rozzamente si può capire che l'NV30 implementa 3 Vertex Shader, mentre l'R300 ben 4, tanto per fare un esempio.

Bastano queste spiegazioni per giustificare il mio punto di vista? Per favore, non mi si venga a dire adesso: non sei informato, non hai letto nessuna documentazione, ecc. ecc. Ne ho letta abbastanza. Questo è quello a cui sono arrivato, e non mi pare di avere sparato delle cazzate...

DoomIII
11-04-2003, 15:00
Originally posted by "DjLode"


Come, essù, allora ci vuoi fare cretini? Noi siamo tifosi perchè critichiamo una determinata cosa, tu dicendo che la Ati ha fatto la prima scheda decente non sei un tifoso? Ahi ahi ahi ipocrisia portami via :)
Come vedi il giudizio che tutti hanno dato su di te, si rivela esatto, il mio discorso finisce qui. Parlo con la gente che ha qualcosa da dire non che tifa a priori. Mi dispiace.


questo è quello che avevo detto ed è stato capito male.
Originally posted by postato da me


DoomIII ha scritto:
E poi il discorso è semplice... allora secondo te sin'ora Ati ha sempre fatto flop e questa è la prima volta che fa una scheda decente?

quella era un ipotesi di frase pronunciata da te se tu applicassi il tuo ragionamento ad Ati, dico:
E poi il discorso è semplice... allora secondo te sin'ora Ati ha sempre fatto flop e questa è la prima volta che fa una scheda decente? Io non lo credo

secondo questa frase io applico un tuo ragionamento esposto sopra e secondo quel tuo ragionamento TU saresti portato a dire:
Ati ha sempre fatto flop e questa è la prima volta che fa una scheda decente.

Originally posted by "DjLode"


Con cosa si giudicano le schede? Con il Sw che esiste. Se no sono illazioni, fantasticherie e non ho la sfera di cristallo :)

non mi riferivo al giudicare le schede grafiche... di cosa si stava parlando? si stava parlando di giudicare le nuove estensioni hardware... secondo me non è possibile e non si possono giudicare la bontà di nuove estensioni hardware senza che ci sia software appropriato... invece secondo te si...
a me sembra la cosa più logica del mondo... e questo non c'entra niente con il giudizio della scheda da un punto di vista del mercato... punto di vista sul quale mi sono espresso alla nausea e non mi sembra di aver consigliato a nessuno di comperarsi NV30.

[EDIT]

Raven
11-04-2003, 15:17
Non mi piace la piega che sta prendendo la discussione...

DoomIII... non capisco perché accusi DJLode di essere un lamer... solo perché ha idee diverse dalle tue?... ti assicuro che se c'è un member assolutamente IMPARZIALE nel giudicare le schede video quello è lui... (ne ho letti molti dei suoi post! ;) )

DoomIII
11-04-2003, 15:18
Originally posted by "yossarian"



Carmack è un programmatore, forse uno dei più bravi nel suo campo; però è meglio che non esca fuori dal suo settore. Il Sw è una cosa, L'HW un'altra e ben distinta: la conoscenza profonda del primo non implica assolutamente la conoscenza del secondo. Quando si progetta un motore grafico ci si basa sulle specifiche teoriche di un determinato HW; ma teoria e pratica spesso non coincidono e la dimostrazione è che nel progettare DoomIII Carmack ha dovuto introdurre una modalità NV30 che non rispetta completamente nemmeno le specifiche DX9 (anche se Doom e OGL). Questo per avere più fps da un HW che, sempre secondo Carmack, era stato preso come modello per l'elaborazione di Doom III. Ora, poichè per la modalità NV30 si parla di maggior velocità e minore qualità rispetto alla ARB2, i casi sono due:
1) Carmack ha progettato un gioco in modalità NV30 (con caratteristiche qualitative inferiori rispetto alla modalità standard) e poi lo ha adattato a girare in modalità standard (e in altre modalità) per farlo girare anche su HW non NV30
2) il gioco è nato in modalità ARB2 ed è stato adattato a girare in altre modalità (compresa la NV30) per venire incontro alle esigenze di chi non aveva un HW adeguato alla modalità standard.
Personalmente sono per la seconda ipotesi.
Se fosse valida la prima, allora un qualunque gioco ARB2 o DX9 avrà qualità superiore al tabto osannato Doom 3 (che come ha detto DjLode non è ancora uscito, e non si sa se e quando uscirà).

hmm... OK, ma dal punto di vista di un programmatore, e non penso di dire niente di male o di sbagliato dicendo che è più bravo, l'hardware viene sfruttato e certamente dal software che è di competenza del programmatore... proprio per questo alcuni commenti di J. li ho trovati molto interessanti... che poi tutto questo 'scandalo' è dovuto al fatto che J. ha detto di aver raggiunto o essersi scontrato con i limiti del R300 ed anche per questo motivo di preferire un NV30 sulla sua macchina principale... infatti qui non è che J. stia parlando di hardware che non lo compete... parla del software... se io ho un trapano e non riesco a trapanare oltre 2 cm... e con un altro riesco fino a 10cm... non sto parlando dell'hardware e dei meccanismi con il quale il trapano è fatto... da operaio sto semplicemente dicendo... questo trapano mi limita perchè oltre 2cm non posso andare... OK l'esempio è idiota ma spero si capisca il senso... senno fa niente. :D

per quanto riguarda le modalità anche qui mi sembra che si stia gridando allo scandalo perchè esiste la modalità NV30 per far girare DoomIII... J.C. ha anche risposto ad una domanda sul perchè non esiste una modalità proprietaria su scheda Ati dicendo semplicemente che non c'era modo per farla.
[/I]
Why do you have NV30-specific code paths and none for the R300?

There aren't any R300-specific fragment extensions, so I really can't make an R300-specific back end. I do support their two sided stencil extension (unfortunately, slightly different than NVIDIA's...), which is orthogonal to the back end selection.
[/I]


Per quanto riguarda il discorso qualità ecc... l'ARB2 su nVidia viene elaborato con più bit rispetto a quanto non venga fatto su R300 e questo è il principale motivo per il quale c'è la differenza di performance a favore di R300... in tal senso nVidia rilascerà nuovi driver.

Il tuo ultimo discorso invece sui punti 1 e 2 ed il motivo per il quale i titoli DX9 ecc... dovrebbero essere superiori a DoomIII (ben benga) non l'ho proprio capito...

DoomIII
11-04-2003, 15:27
Originally posted by "Raven"

Non mi piace la piega che sta prendendo la discussione...

DoomIII... non capisco perché accusi DJLode di essere un lamer... solo perché ha idee diverse dalle tue?... ti assicuro che se c'è un member assolutamente IMPARZIALE nel giudicare le schede video quello è lui... (ne ho letti molti dei suoi post! ;) )

perchè ha quotato una mia frase fuori dal contesto... frase in cui cercando di ragionare simulavo fosse lui a dirla...
cioè lui ha utilizzato un ragionamento per dichiarare che NV30 è un flop... io gli ho detto che se utilizzasse lo stesso canone o modo di ragionare su Ati LUIsarebbe portato a dire:

E poi il discorso è semplice... allora secondo te sin'ora Ati ha sempre fatto flop e questa è la prima volta che fa una scheda decente? Io non lo credo

Questa frase sopra sarebbe detta da lui se utilizzase lo stesso modo di ragionare che ha su nVidia anche su Ati... come ho aggiunto dopo la domanda... che appunto è una domanda non una mia affermazione.. ho detto Io non lo credo

invece il signorino non risponde ma quota fuori dal contesto stando bene attento a non riportare anche la parte: Io non lo credo in modo da far credere che quella frase sia un mio pensiero... questo modo di fare è da lamer o cmq da persona meschina... altrimenti dimmi tu come si può definire uno che si comporta in questo modo... il comportamento non è certo corretto... si può discutere ed ognuno ha le sue idee... ma quando uno inizia a comportarsi così per calunniare gli altri... dimostra solo che sa di avere torto...

Raven
11-04-2003, 15:40
... guarda... visti i toni raggiunti a questo punto dò 2 possibilità:

1. Smetterla (la cosa migliore...)
2. Continuare la diatriba in privato tra di voi... (ma non credo ne valga la pena)

DoomIII
11-04-2003, 16:09
Originally posted by "Raven"

... guarda... visti i toni raggiunti a questo punto dò 2 possibilità:

1. Smetterla (la cosa migliore...)
2. Continuare la diatriba in privato tra di voi... (ma non credo ne valga la pena)

bè... in privato non ho proprio interesse a discutere...
OK, va bene... però non credo ne a te ne a nessun altro farebbe piacere ricevere un trattamento subdolo simile essendo vittime di una calunnia.
Mi limito a rispondere... ed in questo caso penso fosse giusto chiarire... ma se pensi sia meglio non dare corda a certe provocazioni ok, accetto il consiglio e ne faccio tesoro... :)


tornando al contesto NV35... secondo voi ci sono possibilità che non sia mostrato all'E3? visto che il chip c'è ed a porte chiuse è già stato presentato penso ci siano forti possibilità che sia presente all'E3.

yossarian
11-04-2003, 20:01
Originally posted by "DoomIII"



hmm... OK, ma dal punto di vista di un programmatore, e non penso di dire niente di male o di sbagliato dicendo che è più bravo, l'hardware viene sfruttato e certamente dal software che è di competenza del programmatore... proprio per questo alcuni commenti di J. li ho trovati molto interessanti... che poi tutto questo 'scandalo' è dovuto al fatto che J. ha detto di aver raggiunto o essersi scontrato con i limiti del R300 ed anche per questo motivo di preferire un NV30 sulla sua macchina principale... infatti qui non è che J. stia parlando di hardware che non lo compete... parla del software... se io ho un trapano e non riesco a trapanare oltre 2 cm... e con un altro riesco fino a 10cm... non sto parlando dell'hardware e dei meccanismi con il quale il trapano è fatto... da operaio sto semplicemente dicendo... questo trapano mi limita perchè oltre 2cm non posso andare... OK l'esempio è idiota ma spero si capisca il senso... senno fa niente. :D

per quanto riguarda le modalità anche qui mi sembra che si stia gridando allo scandalo perchè esiste la modalità NV30 per far girare DoomIII... J.C. ha anche risposto ad una domanda sul perchè non esiste una modalità proprietaria su scheda Ati dicendo semplicemente che non c'era modo per farla.
[/I]
Why do you have NV30-specific code paths and none for the R300?

There aren't any R300-specific fragment extensions, so I really can't make an R300-specific back end. I do support their two sided stencil extension (unfortunately, slightly different than NVIDIA's...), which is orthogonal to the back end selection.
[/I]


Per quanto riguarda il discorso qualità ecc... l'ARB2 su nVidia viene elaborato con più bit rispetto a quanto non venga fatto su R300 e questo è il principale motivo per il quale c'è la differenza di performance a favore di R300... in tal senso nVidia rilascerà nuovi driver.

Il tuo ultimo discorso invece sui punti 1 e 2 ed il motivo per il quale i titoli DX9 ecc... dovrebbero essere superiori a DoomIII (ben benga) non l'ho proprio capito...

Sul discorso del trapano ti rispondo subito. Se con un trapano non riesco ad andare oltre due cm potrebbe dipendere da un mio limite e non da un limite del trapano. Questo vuol dire che se Carmack ha bisogno di più quantità (il discorso che faceva cdmauro), non è detto che a questa quantità corrisponda una maggior qualità (la modalità NV30 è qualitativamente peggiore dell'ARB2 e in ARB2 l'NV30 è molto più lento dell'R300, ma di questo parlerò nel secondo punto).
Passiamo al discorso dei bit. Tu dici che nVIDIA rilascerà nuovi drivers per ovviare all'inconveniente che in ARB2 l'NV30 utilizza 32 bit per colore contro i 24 dell'R300 (ho parlato di bit per colore e non di FP per un semplice motivo: perchè anche l'R300 e l'R350 hanno FP128) e, per questo motivo è più lento. Bene, se è così, puoi metterti l'animo in pace, poichè (visto che si parla di limiti) l'NV30 può utilizzare solo 16 o 32 bit per colore. I 24 non sono assolutamente previsti (si potrebbe tentare, al limite, ammesso che riesca, una finta rappresentazione a 24 bit, scalando da 32 a 24, dopo aver esguito i calcoli, però, a 32 bit).
Altro limite dell'architettura, per cui i drivers non potranno fare miracoli, e la bandwidth
Altro limite ancora le 3 unità vertex (l'output poligonale dell'NV30 è inferiore a quello dell'R300, pur avendo frequenza di core superiore del 54%; questo risulta chiaramente dai test fatti in modalità wireframe)
Altro limite le 4 pipelines (che comportano un numero di accessi alla ram video doppio rispetto all'R300).
Per quanto riguarda i giochi futuri in DX9, il mio discorso sembrava piuttosto chiaro, però lo ripeto. Come ho detto le ipotesi sono 2.
1) Doom III è stato progettato in modalità ARB2 (standard) e, successivamente, sono state introdotte le altre modalità, compresa la NV30, per venire incontro alle esigenze di quell'HW che ha problemi di fluidità o di altra natura con la ARB2
2) Doom III è stato progettato in modalità NV30 e le altre modalità. compresa quella standard ARB2 ( :confused: ), introdotte in un secondo tempo per venire incontro alle esigenze di chi non ha una FX
Il succo del discorso è che la modalità NV30 è qualitativamente inferiore sia all'ARB2, sia alle specifiche DX9. Quindi se è valida la seconda ipotesi, Doom III, cioè se Doom III è stato progettato in modalità NV30 pensando alle specifiche dell'FX, allora nasce con qualità inferiore ai furturi giochi OGL e DX che si atterranno agli standard ARB2 e DX9.
Io penso che la modalità NV30, al pari, ad esempio della modalità R200, sia stata pensata perchè in modalità ARB2 Doom III è giocabile solo con l'R300 e non perchè tale modalità è superiore, per qualunque moticìvo, a quella standard.
In parole povere, il signor Carmack, genio della programmazione (molto meno in materia di HW), non sembra molto bravo a parole: da un lato ci viene a dire (a parole) che si è scontrato con i limiti dell'R300 e che la sua piattaforma ideale è l'NV30 a causa della sua maggior programmabilità (se è solo questione di numeri, l'R350 è, allora nettamente superiore), dall'altra (a fatti) tira fuori una modalità NV30 (che dal nome si suppone ispirata alla FX) inferiore a quella ARB2 standard. Come dire: "ho bisogno di una piattaforma migliore per creare un prodotto peggiore".

Complimenti, se il sig. Carmack continua così, molto probabilmente, Doom III non uscirà mai ma lui si è assicurato un futiro in politica
:D

DjLode
11-04-2003, 20:06
Originally posted by "DoomIII"


allora sei semplicemente un misero lamer...


Cos'è, punto sul vivo si passa alle offese? Grande.
Raven mi aspetto almeno l'edit dei post, sul fatto di continuare o smettere, non ha senso continuare, ma non posso transigere sul fatto che passa una persona e offende.
Io la frase l'ho letta male e mi scuso di averla usata nella maniera scorretta. Su tutto il resto non rispondo, mi dispiace ma è più forte di me. Non riesco a parlare con persone che pensano di stare due gradini più in alto degli altri, non parlano ma dispensano verità.
Ho finito.

P.S. Raven ti ringrazio per il discorso di imparzialità, per me è un complimento.

cdimauro
11-04-2003, 20:58
Con l'ultimo messaggio di Yossorian mi pare che i discorsi su NV30 / R300 e Doom 3 (il gioco) siano praticamente conclusi. Aggiungo soltanto che Carmack ha sviluppato Doom3 proprio con l'R300, ed è stata la sua piattaforma d'elezione finché non ha ricevuto un sample dell'NV30. Non è un caso se le prime immagini di Doom3 (all'E3 dello scorso anno, se non ricordo male), sono state realizzate con l'R300, quando l'NV30 era ancora nei sogni (incubi? :D) degli ingegneri di nVidia...

P.S. Non mi piace quando una persona scade di tono: può avere tutte le ragioni del mondo, ma c'è modo e modo per esprimere le proprie opinioni e "farsi ragione". Anzi, il modo c'è sicuramente: il forum.

Vita lunga e prospera a tutti... :)

sanitarium
11-04-2003, 22:05
Originally posted by "yossarian"



Sul discorso del trapano ti rispondo subito. Se con un trapano non riesco ad andare oltre due cm potrebbe dipendere da un mio limite e non da un limite del trapano. Questo vuol dire che se Carmack ha bisogno di più quantità (il discorso che faceva cdmauro), non è detto che a questa quantità corrisponda una maggior qualità (la modalità NV30 è qualitativamente peggiore dell'ARB2 e in ARB2 l'NV30 è molto più lento dell'R300, ma di questo parlerò nel secondo punto).
Passiamo al discorso dei bit. Tu dici che nVIDIA rilascerà nuovi drivers per ovviare all'inconveniente che in ARB2 l'NV30 utilizza 32 bit per colore contro i 24 dell'R300 (ho parlato di bit per colore e non di FP per un semplice motivo: perchè anche l'R300 e l'R350 hanno FP128) e, per questo motivo è più lento. Bene, se è così, puoi metterti l'animo in pace, poichè (visto che si parla di limiti) l'NV30 può utilizzare solo 16 o 32 bit per colore. I 24 non sono assolutamente previsti (si potrebbe tentare, al limite, ammesso che riesca, una finta rappresentazione a 24 bit, scalando da 32 a 24, dopo aver esguito i calcoli, però, a 32 bit).
Altro limite dell'architettura, per cui i drivers non potranno fare miracoli, e la bandwidth
Altro limite ancora le 3 unità vertex (l'output poligonale dell'NV30 è inferiore a quello dell'R300, pur avendo frequenza di core superiore del 54%; questo risulta chiaramente dai test fatti in modalità wireframe)
Altro limite le 4 pipelines (che comportano un numero di accessi alla ram video doppio rispetto all'R300).
Per quanto riguarda i giochi futuri in DX9, il mio discorso sembrava piuttosto chiaro, però lo ripeto. Come ho detto le ipotesi sono 2.
1) Doom III è stato progettato in modalità ARB2 (standard) e, successivamente, sono state introdotte le altre modalità, compresa la NV30, per venire incontro alle esigenze di quell'HW che ha problemi di fluidità o di altra natura con la ARB2
2) Doom III è stato progettato in modalità NV30 e le altre modalità. compresa quella standard ARB2 ( :confused: ), introdotte in un secondo tempo per venire incontro alle esigenze di chi non ha una FX
Il succo del discorso è che la modalità NV30 è qualitativamente inferiore sia all'ARB2, sia alle specifiche DX9. Quindi se è valida la seconda ipotesi, Doom III, cioè se Doom III è stato progettato in modalità NV30 pensando alle specifiche dell'FX, allora nasce con qualità inferiore ai furturi giochi OGL e DX che si atterranno agli standard ARB2 e DX9.
Io penso che la modalità NV30, al pari, ad esempio della modalità R200, sia stata pensata perchè in modalità ARB2 Doom III è giocabile solo con l'R300 e non perchè tale modalità è superiore, per qualunque moticìvo, a quella standard.
In parole povere, il signor Carmack, genio della programmazione (molto meno in materia di HW), non sembra molto bravo a parole: da un lato ci viene a dire (a parole) che si è scontrato con i limiti dell'R300 e che la sua piattaforma ideale è l'NV30 a causa della sua maggior programmabilità (se è solo questione di numeri, l'R350 è, allora nettamente superiore), dall'altra (a fatti) tira fuori una modalità NV30 (che dal nome si suppone ispirata alla FX) inferiore a quella ARB2 standard. Come dire: "ho bisogno di una piattaforma migliore per creare un prodotto peggiore".

Complimenti, se il sig. Carmack continua così, molto probabilmente, Doom III non uscirà mai ma lui si è assicurato un futiro in politica
:D

Quoto e sottoscrivo.

DoomIII
11-04-2003, 22:09
Originally posted by "yossarian"


...non è detto che a questa quantità corrisponda una maggior qualità (la modalità NV30 è qualitativamente peggiore dell'ARB2 e in ARB2 l'NV30 è molto più lento dell'R300, ma di questo parlerò nel secondo punto).


ti rispondo dopo su questo punto... intanto anticipo:
There is no discernable quality difference, because everything is going into an 8 bit per component framebuffer. Few graphics calculations really need 32 bit accuracy. I would have been happy to have just 16 bit, but some texture calculations have already been done in 24 bit, so it would have been sort of a step back in some cases. Going to full 32 bit will allow sharing the functional units between the vertex and pixel hardware in future generations, which will be a good thing.

già detto più e più volte ma è bene ricordare che si tratta di differenze di qualità irrilevanti e non allucinanti come lasciate intendere in alcuni commenti.

Originally posted by "yossarian"


Altro limite dell'architettura, per cui i drivers non potranno fare miracoli, e la bandwidth
Altro limite ancora le 3 unità vertex (l'output poligonale dell'NV30 è inferiore a quello dell'R300, pur avendo frequenza di core superiore del 54%; questo risulta chiaramente dai test fatti in modalità wireframe)
Altro limite le 4 pipelines (che comportano un numero di accessi alla ram video doppio rispetto all'R300).

qui non sono del tutto d'accordo ma non ha importanza :D
accenno brevente per dare una risposta che si tratta di scelte nVidia... il perchè nVidia ha fatto queste scelte è che ha ingegnerizzato molto gli shader e l'architettura stessa del NV30 è la dimostrazione dei pensieri nVidia secondo i quali l'efficenza dell'esecuzione di programmi shader, la loro flessibilità (NB: quando parlo di flessibilità del NV30 mi riferisco alla programmazione shader non alla precisione delle istruzioni nel pixel shader che non c'entrano niente) ecc... difatti proprio a livello di shader l'architettura superiore del NV30 permette di eseguire programmi shader e fase di rendering con minor passate di quante non ne necessità l'R300 e lo ripeto con un rapporto fino 1:7.

Originally posted by "yossarian"


Per quanto riguarda i giochi futuri in DX9, il mio discorso sembrava piuttosto chiaro, però lo ripeto. Come ho detto le ipotesi sono 2.
1) Doom III è stato progettato in modalità ARB2 (standard) e, successivamente, sono state introdotte le altre modalità, compresa la NV30, per venire incontro alle esigenze di quell'HW che ha problemi di fluidità o di altra natura con la ARB2
2) Doom III è stato progettato in modalità NV30 e le altre modalità. compresa quella standard ARB2 ( :confused: ), introdotte in un secondo tempo per venire incontro alle esigenze di chi non ha una FX
Il succo del discorso è che la modalità NV30 è qualitativamente inferiore sia all'ARB2, sia alle specifiche DX9. Quindi se è valida la seconda ipotesi, Doom III, cioè se Doom III è stato progettato in modalità NV30 pensando alle specifiche dell'FX, allora nasce con qualità inferiore ai furturi giochi OGL e DX che si atterranno agli standard ARB2 e DX9.
Io penso che la modalità NV30, al pari, ad esempio della modalità R200, sia stata pensata perchè in modalità ARB2 Doom III è giocabile solo con l'R300 e non perchè tale modalità è superiore, per qualunque moticìvo, a quella standard.

hmm.. allora avevo capito giusto... ma non capisco il senso di quello che stai dicendo...
ci sono una sacco di elementi... istruzioni e nuove funzionalità ecc...
poi e solo poi abbiamo questo discorso delle modalità e delle differenti precisioni di calcolo... e non sarà certo la semplice scelta della precisione di calcolo a fare di un gioco DX9 una figata pazzasca... per chi capisce qualcosa di programmazione... diciamo che io in un programma qualsiasi al posto di int utilizzo long... posso avere un programma fantastico con int ed uno scandaloso con long... non basta utilizzare long per fare di un programma un buon programma... dipende dal codice... e qui è la stessa cosa... non è mica la scelta della precisione di calcolo a fare un buon gioco... nè la scelta di utilizzare una modalità intesa come insieme di features. Non basta mica fare la scelta... poi bisogna scrivere il codice... per questo non capisco questo tuo discorso... sembra quasi che tu stia dicendo: i programmatori bastano che scelgano la modalità ARB2 e faranno giochi con motori grafici migliori di DoomIII.
Hai voglia... sai benissimo come funzionano le cose... ci sono alcuni motori grafici sviluppati con anni di lavoro che poi sono sfruttati per realizzare altri giochi vedi appunto Unreal e DoomIII... guarda lo stesso nuovo motore di Unreal che è ancora fixed-function oriented... non è facile affrontare l'investimento quando si sviluppa un nuovo gioco di realizzare anche il motore grafico(se questo dev'essere di prim'ordine) è invece molto più conveniente acquistarne uno già fatto... proprio perchè non basta scegliere ARB2 per avere come per magia un motore grafico pazzesco bello che pronto.
Per dovere di cronaca i 24 bit di precisione si riferiscono al pixel shader... e questo non basta a trasformare miracolosamente del codice in un buon gioco con un fantastico motore vertex shader e pixel shader.

Originally posted by "yossarian"


In parole povere, il signor Carmack, genio della programmazione (molto meno in materia di HW), non sembra molto bravo a parole: da un lato ci viene a dire (a parole) che si è scontrato con i limiti dell'R300 e che la sua piattaforma ideale è l'NV30 a causa della sua maggior programmabilità (se è solo questione di numeri, l'R350 è, allora nettamente superiore), dall'altra (a fatti) tira fuori una modalità NV30 (che dal nome si suppone ispirata alla FX) inferiore a quella ARB2 standard. Come dire: "ho bisogno di una piattaforma migliore per creare un prodotto peggiore".

inferiore in che senso? perchè nei pixel shader le istruzioni sono eseguite con minore precisione? e che c'entra questo con la programmazione ecc...? fai tutto sto casino sulla modalità NV30 solo perchè poi, dopo il vertex shader ecc... con tutti le features attivate ecc... nel pixel shader la precisione di calcolo è minore con differenza visiva impercettibile?
Altrimenti cosa vuoi che faccia , che sfrutti la maggior flessibilità e potenzialità del NV30 e che poi il gioco sia diverso da come girerebbe su R300? Non credo J.C. si metta a sfruttare la maggior capacità del NV30 per ottenere effetti e features in più poi non presenti su altre schede come la R300 perchè la stessa non ha la capacità di farlo.

Originally posted by "yossarian"


Complimenti, se il sig. Carmack continua così, molto probabilmente, Doom III non uscirà mai ma lui si è assicurato un futiro in politica
:D bè ma è facile... se sei così critico nei confronti dell'incompetente Carmack giura di non giocare guardare acquistare mai DoomIII e nessun gioco sviluppato con quel motore... :p ;)
e continua contento e felice a giocare a titoli fixed-function(T&L). :D
intanto visto che DoomIII non uscirà mai ci sono 2 giochi in sviluppo con il motore di DoomIII... ed ovviamente sono solo i primi visto che per un bel po di tempo il motore di DoomIII sarà lo standard.

yossarian
12-04-2003, 00:20
Originally posted by "DoomIII"



ti rispondo dopo su questo punto... intanto anticipo:
There is no discernable quality difference, because everything is going into an 8 bit per component framebuffer. Few graphics calculations really need 32 bit accuracy. I would have been happy to have just 16 bit, but some texture calculations have already been done in 24 bit, so it would have been sort of a step back in some cases. Going to full 32 bit will allow sharing the functional units between the vertex and pixel hardware in future generations, which will be a good thing.

già detto più e più volte ma è bene ricordare che si tratta di differenze di qualità irrilevanti e non allucinanti come lasciate intendere in alcuni commenti.



Differenze irrilevanti? Innanzitutto è sbagliato quanto scritto sopra a proposito degli 8 bit per colore nel frame buffer, poichè l'R300, al contrario dell'NV30 adopera 10 bit come la Parhelia (visto che vogliamo parlare di caratteristiche più o meno superiori). In secondo luogo, è stato proprio Carmack a decantare l'utilizzo dei 32 bit per colore dell'NV30, parlando, con enfasi, di qualità cinematografica.
Stando al tuo discorso (differenze irrilevanti), i famosi 32 bit di cui si vantano i tecnici nVIDIA, sono solo una trovata pubblicitaria (che fa girare più lentamente il SW, in compenso). Ottima innovazione :D

yossarian
12-04-2003, 01:10
Originally posted by "DoomIII"




qui non sono del tutto d'accordo ma non ha importanza :D
accenno brevente per dare una risposta che si tratta di scelte nVidia... il perchè nVidia ha fatto queste scelte è che ha ingegnerizzato molto gli shader e l'architettura stessa del NV30 è la dimostrazione dei pensieri nVidia secondo i quali l'efficenza dell'esecuzione di programmi shader, la loro flessibilità (NB: quando parlo di flessibilità del NV30 mi riferisco alla programmazione shader non alla precisione delle istruzioni nel pixel shader che non c'entrano niente) ecc... difatti proprio a livello di shader l'architettura superiore del NV30 permette di eseguire programmi shader e fase di rendering con minor passate di quante non ne necessità l'R300 e lo ripeto con un rapporto fino 1:7.



Chiariamo innanzitutto una cosa: gli shader di cui parli tanto non sono altro che istruzioni a livello HDL, non sono assolutamente una struttura fisica del chip. Non esiste alcun componente o circuito all'interno di un integrato che risponda al nome di shader. Il rapporto di 1:7 di cui parli è del tutto inventato; al massimo si può arrivare ad un rapporto di 1:3 e dipende esclusivamente dalla capacità dell'NV30 di elaborare PS con istruzioni più lunghe rispetto a quelle dell'R300; purtroppo anche su questo devo darti una delusione, poichè l'F-Buffer, implementabile anche sull'R300, ribalta a favore di ATI questo rapporto (anche in questo caso, semplicemente ricompilando alcune righe di programma, senza ottimizzazione HW).
Che tu possa non essere d'accordo su quanto ho detto circa l'architettura dei due chip, non è che non abbia importanza, poichè è sempre giusto confrontare le proprie idee con quelle degli altri; però una cosa è farsi una cultura teorica, leggendo articoli (come hai fatto sugli shader), un'altra è lavorare con determinate cose (o quantomeno averlo fatto) e vederle all'opera tutti i giorni.
L'architettura dell'NV30, pur elaborando funzioni avanzate, è vecchia; e per architettura mi riferisco alla struttura HW con 4x2 pipelines e al bus a 128 bit. In questo non ci vedo alcuna ottimizzazione shader oriented come tu sostieni ma, piuttosto, una sorta di conservatorismo atavico.

Originally posted by "DoomIII"




hmm.. allora avevo capito giusto... ma non capisco il senso di quello che stai dicendo...
ci sono una sacco di elementi... istruzioni e nuove funzionalità ecc...
poi e solo poi abbiamo questo discorso delle modalità e delle differenti precisioni di calcolo... e non sarà certo la semplice scelta della precisione di calcolo a fare di un gioco DX9 una figata pazzasca... per chi capisce qualcosa di programmazione... diciamo che io in un programma qualsiasi al posto di int utilizzo long... posso avere un programma fantastico con int ed uno scandaloso con long... non basta utilizzare long per fare di un programma un buon programma... dipende dal codice... e qui è la stessa cosa... non è mica la scelta della precisione di calcolo a fare un buon gioco... nè la scelta di utilizzare una modalità intesa come insieme di features. Non basta mica fare la scelta... poi bisogna scrivere il codice... per questo non capisco questo tuo discorso... sembra quasi che tu stia dicendo: i programmatori bastano che scelgano la modalità ARB2 e faranno giochi con motori grafici migliori di DoomIII.
Hai voglia... sai benissimo come funzionano le cose... ci sono alcuni motori grafici sviluppati con anni di lavoro che poi sono sfruttati per realizzare altri giochi vedi appunto Unreal e DoomIII... guarda lo stesso nuovo motore di Unreal che è ancora fixed-function oriented... non è facile affrontare l'investimento quando si sviluppa un nuovo gioco di realizzare anche il motore grafico(se questo dev'essere di prim'ordine) è invece molto più conveniente acquistarne uno già fatto... proprio perchè non basta scegliere ARB2 per avere come per magia un motore grafico pazzesco bello che pronto.
Per dovere di cronaca i 24 bit di precisione si riferiscono al pixel shader... e questo non basta a trasformare miracolosamente del codice in un buon gioco con un fantastico motore vertex shader e pixel shader.




Non è un problema di precisione di calcolo ma qualcosa di più profondo: l'utilizzo di specifiche inferiori per far andare un gioco più velocemente. Tra queste specifiche inferiori c'è anche la precisione di calcolo, ma non solo quella.
Per dovere di cronaca i 24 bit si riferiscono solo alla prcoìisione di calcolo dei colori all'interno delle pipelines e non ai PS; ti faccio presente che l'R300 ha FP128, esattamente come l'NV30. La differenza è che l'R300 è capace di elaborare anche a 24 bit, l'NV30 deve passare da 32 a 16.

Originally posted by "DoomIII"




inferiore in che senso? perchè nei pixel shader le istruzioni sono eseguite con minore precisione? e che c'entra questo con la programmazione ecc...? fai tutto sto casino sulla modalità NV30 solo perchè poi, dopo il vertex shader ecc... con tutti le features attivate ecc... nel pixel shader la precisione di calcolo è minore con differenza visiva impercettibile?
Altrimenti cosa vuoi che faccia , che sfrutti la maggior flessibilità e potenzialità del NV30 e che poi il gioco sia diverso da come girerebbe su R300? Non credo J.C. si metta a sfruttare la maggior capacità del NV30 per ottenere effetti e features in più poi non presenti su altre schede come la R300 perchè la stessa non ha la capacità di farlo.



La modalità NV30 è inferiore qualitativamente, anche perchè le istruzioni sono eseguite con minore precisione. Se poi, come tu dici, questa differenza è irrilevante, allora perchè nVIDIA ha pubblicizzato tanto la qualità cinematografica dell'NV30 parlando di migliaia di miliardi di sfumature di colore (al pari di quanto usato a Hollywood), se poi all'atto pratico, per veder girare decentemente un gioco, deve ricorrere ad una modalità addirittura inferiore a quella della concorrenza?
Sulla maggior flessibilità e potenzialità ho molti dubbi. Diciamo che si può parlare di maggior programmabilità (attenzione all'F-Buffer). Se fosse più flessibile non avrebbe problemi con quello che tu definisci SW vecchio. Se avesse maggiori potenzialità non avrebbe bisogno di una modalità dedicata (NV30) per riuscire a far segnare qualche fps in più della concorrenza che utilizza la modalità standard. Ti faccio presente che l'ARB2 non è uno standard obsoleto, nato per girare su macchine preistoriche, ma lo standard OpenGL più avanzato, secondo le specidìfiche OGL 1.4 (quelle per cui ha il supporto nativo la FX, guarda caso).
Inoltre la presunta superiorità dell'NV30 potrebbe risultare, al limite, solo in un maggior numero di istruzioni PS (quelle VS sono identiche a quelle dell'R300), quindi si tratterebbe di una superiorità.....dimezzata.
Riassumendo: la FX nasce con supporto all'ARB2, però per far girare un po' più velocemente Doom 3 rispetto all'R300, deve ricorrere alla modalità NV30 (che a tuo dire dovrebbe riservarci meraviglie e a sentire Carmack ha una qualità inferiore).

Originally posted by "DoomIII"



bè ma è facile... se sei così critico nei confronti dell'incompetente Carmack giura di non giocare guardare acquistare mai DoomIII e nessun gioco sviluppato con quel motore... :p ;)
e continua contento e felice a giocare a titoli fixed-function(T&L). :D
intanto visto che DoomIII non uscirà mai ci sono 2 giochi in sviluppo con il motore di DoomIII... ed ovviamente sono solo i primi visto che per un bel po di tempo il motore di DoomIII sarà lo standard.

Per il momento Doom 3 non si è ancora visto in giro. Ne esiste una versione alfa che risale ai tempi della calata degli Unni e che non è neppure lontana parente della brutta copia della versione semi-definitiva.
I giochi di cui parli a quale motore fanno riferimento? A quello sviluppato su GF3, su R200, su GF4, su 9700, su NV30, o su qualcuno dei prossimi chip, ancora di là da venire?
Gli standard fanno presto ad essere superati.
Per quanto riguarda il giocare o meno con Doom 3 o con titoli fixed function, posso dirti che io continuo a giocare felicemente anche con i titoli DOS (senza bisogno di ottimizzazioni :D ).
Le critiche a Carmack come programmatore non mi sognerei mai di farle ma, in quanto ad esperto di HW.....................
Come politico, se si candidasse, forse avrebbe il mio voto
:D

yossarian
12-04-2003, 01:28
p.s.: forse non sarò normale; ti gioro, non ho intenzione di scandalizzarti, però a me, sinceramente, del fatto che "dovrebbe" uscire Doom III, non me ne può fregare di meno; se e quando uscirà valuterò se vale o meno la pena di comprarlo e mi regolerò di conseguenza.

p.p.s.: secondo te, se l'NV30 ha tutte queste potenzialità inespresse, che emergeranno e sommergeranno (la concorrenza) con l'uscita dei titoli shader oriented, come mai nVIDIA sta lavorando all'NV35 che ha un'architettura HW piuttosto differente dall'NV30? Forse che neppure loro si sono resi conto di quello che potrebbero tirar fuori da questo chip?
Come mai hanno fatto uscire la versione Ultra che altro non è che l'NV30 overclockato e overvoltato? (non tirate fuori le storie delle frequenze, delle DDR2 e del processo a 0,13 u, poichè sono cose che non stanno in piedi: a 0,13 u si consuma meno e si scalda meno, le DDR2 lavorano a frequenze di core dimezzate rispetto alle DDR1 e sono state progettate per consumare meno, scaldare meno e, sopratttutto, costare meno).
Come mai nVIDIA ha iniziato a tirar fuori una serie di drivers che forzano la FP64 sull'NV30, per ottenere prestazioni superiori e punteggi più alti nei bench (a scapito della tanto decantata qualità cinematografica)?
Insomma, a tuo dire l'NV30 non va come dovrebbe con i giochi "vecchi" perchè ottimizzata per i "nuovi", a detta di Carmack ha bisogno di una modalità dedicata (infeiore come qualità) per andare un po' più forte dell'R300 con i giochi "nuovi". Quale sarà la conclusione? Creiamo tutti giochi FX optimized, fregandocene degli standard, e tutte le altre schede video, comprese le nVIDIA non NV30 based le buttiamo al cesso? Il mistero si infittisce, ossia l'affare si fa duro, cioè la situazione s'ingrossa
:pig: :pig: :pig: :pig: :pig:

La soluzione alla prossima puntata

:D :pig:

cdimauro
12-04-2003, 06:57
Per me c'è poco da continuare a discutere: i miei messaggi, infatti, vengono "stranamente" saltati a pié pari, salvo poi comparire dei "riferimenti" (frecciatine? ;)) in qualche testo. :rolleyes:

Non mi pare che manchino di informazioni tecniche e di logica: devo dedurre che sono inattaccabili, allora? :D

Quanto al discorso della precisione, che è stato tirato in ballo "indirettamente", come dicevo poc'anzi, penso che un po' di studio del funzionamento dei pixel shader, accoppiato a un'indispensabile nozione di calcolo numerico, non farebbe male a quanti pensano che 16 bit di mantissa bastano e avanzano. Infatti, l'R300, avendo un output a 10 bit, presenterebbe soltanto 6 bit di precisione "addizionale" per tenere conto degli errori d'arrotondamento e dell'imprecisione derivata dall'utilizzo di funzioni trigonometriche, logaritmiche, ecc.

Se l'NV30 avesse un output ad 8 bit (! ;)) anziché a 10, rimarebbero 8 bit "addizionali": sempre pochi.

Infatti qual è il vantaggio principale dell'NV30 che viene sbandierato ai 4 venti, specialmente in questo thread? La possibilità di eseguire programmi shader "lunghi". Si parla di rapporti 7:1, e via dicendo ("dimendicando" anche l'F-Buffer dell'R350, stranamente... ;)).

Peccato che più elevato è il numero di istruzioni eseguite, più vengono introdotti errori nei calcoli, come ho già detto più volte. Risultato: la qualità finale va a farsi benedire... :rolleyes:

E per provare ciò che dico posso tranquillamente avvalermi di chi l'NV30 l'ha costruito e lo sta vendendo: nVidia. Recuperate tutte le immagini di lancio dell'NV30 in cui si faceva notare chiaramente la differenza fra un'immagine 3D generata con poca precisione e quelle generate con (l'NV30?) precisione maggiore: ai tempi erano abbastanza elequonti. Non so adesso se lo saranno altrettanto per tutti quelli che pensano che bastino 16 bit di precisione per avere un'ottima resa grafica. Eppure la fonte è la "vostra" casa madre... :D

Per il resto, visto che non ho ricevuto alcuna risposta in merito, sono curioso di sapere quali sono queste fantastiche innovazioni (shader avanzati) dell'NV30 rispetto alle DX9/R300 che possono cambiare radicalmente l'approccio alla creazione degli engine 3D e che tanto inficiano le prestazioni dei driver... A parte i loop e le subroutine, come ho già detto, per me non c'è assolutamente niente di esaltante: si tratta di innovazioni QUANTITATIVE, non QUALITATIVE. Insomma, non si passa dalla programmazione strutturata a quella ad oggetti, giusto per fare un esempio macroscopico.

So già anche questo messaggio sarà saltato a pié pari: contenti "voi"... :D "A chi vuol esser lieto, sia!" ;)

yossarian
12-04-2003, 10:38
Originally posted by "cdimauro"

Per me c'è poco da continuare a discutere: i miei messaggi, infatti, vengono "stranamente" saltati a pié pari, salvo poi comparire dei "riferimenti" (frecciatine? ;)) in qualche testo. :rolleyes:

Non mi pare che manchino di informazioni tecniche e di logica: devo dedurre che sono inattaccabili, allora? :D

Quanto al discorso della precisione, che è stato tirato in ballo "indirettamente", come dicevo poc'anzi, penso che un po' di studio del funzionamento dei pixel shader, accoppiato a un'indispensabile nozione di calcolo numerico, non farebbe male a quanti pensano che 16 bit di mantissa bastano e avanzano. Infatti, l'R300, avendo un output a 10 bit, presenterebbe soltanto 6 bit di precisione "addizionale" per tenere conto degli errori d'arrotondamento e dell'imprecisione derivata dall'utilizzo di funzioni trigonometriche, logaritmiche, ecc.

Se l'NV30 avesse un output ad 8 bit (! ;)) anziché a 10, rimarebbero 8 bit "addizionali": sempre pochi.

Infatti qual è il vantaggio principale dell'NV30 che viene sbandierato ai 4 venti, specialmente in questo thread? La possibilità di eseguire programmi shader "lunghi". Si parla di rapporti 7:1, e via dicendo ("dimendicando" anche l'F-Buffer dell'R350, stranamente... ;)).

Peccato che più elevato è il numero di istruzioni eseguite, più vengono introdotti errori nei calcoli, come ho già detto più volte. Risultato: la qualità finale va a farsi benedire... :rolleyes:

E per provare ciò che dico posso tranquillamente avvalermi di chi l'NV30 l'ha costruito e lo sta vendendo: nVidia. Recuperate tutte le immagini di lancio dell'NV30 in cui si faceva notare chiaramente la differenza fra un'immagine 3D generata con poca precisione e quelle generate con (l'NV30?) precisione maggiore: ai tempi erano abbastanza elequonti. Non so adesso se lo saranno altrettanto per tutti quelli che pensano che bastino 16 bit di precisione per avere un'ottima resa grafica. Eppure la fonte è la "vostra" casa madre... :D

Per il resto, visto che non ho ricevuto alcuna risposta in merito, sono curioso di sapere quali sono queste fantastiche innovazioni (shader avanzati) dell'NV30 rispetto alle DX9/R300 che possono cambiare radicalmente l'approccio alla creazione degli engine 3D e che tanto inficiano le prestazioni dei driver... A parte i loop e le subroutine, come ho già detto, per me non c'è assolutamente niente di esaltante: si tratta di innovazioni QUANTITATIVE, non QUALITATIVE. Insomma, non si passa dalla programmazione strutturata a quella ad oggetti, giusto per fare un esempio macroscopico.

So già anche questo messaggio sarà saltato a pié pari: contenti "voi"... :D "A chi vuol esser lieto, sia!" ;)

Beh, dai; io ti ho tirato in ballo in più di un'occasione :D
A quanto hai detto aggiungo che finora si è parlato di 16 bit per colore nell'NV30 (dicendo che la differenza qualitativa tra 16 e 32 è impercettibile :confused: ). E se invece l'NV30 rappresentasse i colori con precisione a 8 bit? Qualcuno ha dimenticato la famosa loseless color compression che darebbe un rapporto di compressione di 4:1 (1/4 di 32 è proprio 8). A parte il fatto che in passato qualcun altro aveva interpretato quel "loseless" come senza perdite in fatto di velocità di elaborazione o addiritura con occupazione di banda pari a 0 (cioè, nell'uno e nell'altro caso, i dati noon venivano trasferiti da nessuna parte :confused: ), c'è da sottolineare che, in ogni caso, passando da un'elaborazione a 32 bit ad una rappresentazione reale a 8 bit, la perdita di qualità c'è, eccome. Se poi vogliamo dire che è irrilevante perchè la rappresentazione finale è a 32 bit per pixel, d'accordo: allora la tanto sbandierata qualità cinematografica è solo una grande ca@@ata, una gigantesca ca@@ata, ecc, ecc.
E vi ricordo che qualcuno, a suo tempo, crocifisse 3dfx perchè aveva fatto qualcosa di simile (voodoo3); 22 bit per pixel compressi poi fino a 16. Questo fu uno dei motivi di successo della TNT2 che vantava una rappresentazione a 32 bit (chissà perchè poi non della G400 che oltre ai 32 bit aveva anche l'EMBM e una qualità d'immagine nettamente superiore per lo standard di allora). :eek:

DoomIII
12-04-2003, 11:36
Originally posted by "yossarian"


...
...
In secondo luogo, è stato proprio Carmack a decantare l'utilizzo dei 32 bit per colore dell'NV30, parlando, con enfasi, di qualità cinematografica.
Stando al tuo discorso (differenze irrilevanti), i famosi 32 bit di cui si vantano i tecnici nVIDIA, sono solo una trovata pubblicitaria (che fa girare più lentamente il SW, in compenso). Ottima innovazione :D

ehheeh, bè... adesso capisco meglio il tuo punto di vista è perchè il discorso verta molto su questa storia dei bit... personalmente si... penso nVidia ci abbia giocato molto a livello pubblicitario... ma sinceramente apparte per un discorso professionale e per la possibilità dati agli sviluppatori di sfruttare la maggior precisione in modo da introdurre un nuovo standar qualitativo per titoli futuri quando ci saranno nuove schede grafiche sta storia non è che mi impressioni più che tanto... al limite sono curioso di vedere se con i nuovi driver riusciranno anche per NV30 ad ottenere un utile incremento di performance... ma ripeto ciò che ho sempre detto e che non consiglierei mai di acquistare un NV30 esattamente come all'epoca della Gef3 non ne consigliai l'acquisto ai miei amici poichè introduceva gli shader ma un vero software shader avrebbe 'scattato' da paura ed era quindi meglio attendere che all'arrivo di software ci fosse anche stato nuovo hardware(Gef4 o nuove versioni di Gef3)... ho avuto torto dal lato software perchè il software shader-oriented non è mai arrivato come invece si poteva sperare. :D :( :cry:

DoomIII
12-04-2003, 11:56
Originally posted by "yossarian"



Chiariamo innanzitutto una cosa: gli shader di cui parli tanto non sono altro che istruzioni a livello HDL, non sono assolutamente una struttura fisica del chip. Non esiste alcun componente o circuito all'interno di un integrato che risponda al nome di shader.

hmmm... premessa: uee, ma quanto scrivi? :D

bè, sinceramente mi risulta che esistano circuiti vertex-shader e pixel-shader che seguono le rispettive istruzioni... istruzioni che considero parte dell'architettura assieme ai registri, modificatori ecc... e per i quali mi riferisco al fatto che nVidia ha fatto notevoli progressi.

Originally posted by "yossarian"


Il rapporto di 1:7 di cui parli è del tutto inventato; al massimo si può arrivare ad un rapporto di 1:3 e dipende esclusivamente dalla capacità dell'NV30 di elaborare PS con istruzioni più lunghe rispetto a quelle dell'R300; purtroppo anche su questo devo darti una delusione, poichè l'F-Buffer, implementabile anche sull'R300, ribalta a favore di ATI questo rapporto (anche in questo caso, semplicemente ricompilando alcune righe di programma, senza ottimizzazione HW).


si, può essere di 1:3 in certi casi ma in altri di 1:7... quindi arriva come ho detto io al massimo ad un rapporto di 1:7.

http://graphics.stanford.edu/papers/rds/slides/slide42.gif

Originally posted by "yossarian"


Che tu possa non essere d'accordo su quanto ho detto circa l'architettura dei due chip, non è che non abbia importanza, poichè è sempre giusto confrontare le proprie idee con quelle degli altri; però una cosa è farsi una cultura teorica, leggendo articoli (come hai fatto sugli shader), un'altra è lavorare con determinate cose (o quantomeno averlo fatto) e vederle all'opera tutti i giorni.
L'architettura dell'NV30, pur elaborando funzioni avanzate, è vecchia; e per architettura mi riferisco alla struttura HW con 4x2 pipelines e al bus a 128 bit. In questo non ci vedo alcuna ottimizzazione shader oriented come tu sostieni ma, piuttosto, una sorta di conservatorismo atavico.

hmm... penso che principalmente attualmente i benefici in evoluzioni tecnologiche a quel livello siano principalmente visibili con software T&L più che con software shader... cmq su questi aspetti dell'architettura non hai tutti i torti... ma io personalmente ritendo NV30 un chip di passaggio e lo riterrei così anche se fosse stato come doveva essere... quindi lo ritengo ancor più transitorio in virtù dei problemi avuti in produzione poichè TMSC non ha potuto soddisfare i requisiti nVidia per la realizzazzione del suddetto chip... cosa che ha costretto in fretta e furia a rivedere vari aspetti del NV30 stesso.


Originally posted by "yossarian"


Non è un problema di precisione di calcolo ma qualcosa di più profondo: l'utilizzo di specifiche inferiori per far andare un gioco più velocemente. Tra queste specifiche inferiori c'è anche la precisione di calcolo, ma non solo quella.
Per dovere di cronaca i 24 bit si riferiscono solo alla prcoìisione di calcolo dei colori all'interno delle pipelines e non ai PS; ti faccio presente che l'R300 ha FP128, esattamente come l'NV30. La differenza è che l'R300 è capace di elaborare anche a 24 bit, l'NV30 deve passare da 32 a 16.


ed allora cosa c'è di altro? a me risulta sia solo quello, cioè la differenza nella precisione di calcolo.

Originally posted by "yossarian"


La modalità NV30 è inferiore qualitativamente, anche perchè le istruzioni sono eseguite con minore precisione. Se poi, come tu dici, questa differenza è irrilevante, allora perchè nVIDIA ha pubblicizzato tanto la qualità cinematografica dell'NV30 parlando di migliaia di miliardi di sfumature di colore (al pari di quanto usato a Hollywood), se poi all'atto pratico, per veder girare decentemente un gioco, deve ricorrere ad una modalità addirittura inferiore a quella della concorrenza?

la differenza irrilevante è in DoomIII tra ARB2 di Ati300 e NV30... e non tra 32 e 8 bit... li c'è si una grande differenza... :p ;)


Originally posted by "yossarian"


Sulla maggior flessibilità e potenzialità ho molti dubbi. Diciamo che si può parlare di maggior programmabilità (attenzione all'F-Buffer). Se fosse più flessibile non avrebbe problemi con quello che tu definisci SW vecchio. Se avesse maggiori potenzialità non avrebbe bisogno di una modalità dedicata (NV30) per riuscire a far segnare qualche fps in più della concorrenza che utilizza la modalità standard. Ti faccio presente che l'ARB2 non è uno standard obsoleto, nato per girare su macchine preistoriche, ma lo standard OpenGL più avanzato, secondo le specidìfiche OGL 1.4 (quelle per cui ha il supporto nativo la FX, guarda caso).
Inoltre la presunta superiorità dell'NV30 potrebbe risultare, al limite, solo in un maggior numero di istruzioni PS (quelle VS sono identiche a quelle dell'R300), quindi si tratterebbe di una superiorità.....dimezzata.
Riassumendo: la FX nasce con supporto all'ARB2, però per far girare un po' più velocemente Doom 3 rispetto all'R300, deve ricorrere alla modalità NV30 (che a tuo dire dovrebbe riservarci meraviglie e a sentire Carmack ha una qualità inferiore).


mi sembra un po esagerato indicare NV30 inferiore perchè ha bisogno di una sua modalità per far girare DoomIII... J.C. ha detto che se ci fosse la possibilità di utilizzare una modalità per l'R300 lo avrebbe fatto...

Originally posted by "yossarian"


Per il momento Doom 3 non si è ancora visto in giro. Ne esiste una versione alfa che risale ai tempi della calata degli Unni e che non è neppure lontana parente della brutta copia della versione semi-definitiva.
I giochi di cui parli a quale motore fanno riferimento? A quello sviluppato su GF3, su R200, su GF4, su 9700, su NV30, o su qualcuno dei prossimi chip, ancora di là da venire?
Gli standard fanno presto ad essere superati.
Per quanto riguarda il giocare o meno con Doom 3 o con titoli fixed function, posso dirti che io continuo a giocare felicemente anche con i titoli DOS (senza bisogno di ottimizzazioni :D ).
Le critiche a Carmack come programmatore non mi sognerei mai di farle ma, in quanto ad esperto di HW.....................
Come politico, se si candidasse, forse avrebbe il mio voto
:D

qui è assurdo... gli standard fanno presto ad essere superati? si certo... ma solo sulla carta... scusa qual'è lo standar attuale? quanti anni sono passati dal arrivo sul mercato della Gef3? eppure lo standar attuale è ancora il T&L fixed-function... esiste forse uno ed un solo titolo che sia shader-oriented?
l'ho già detto nel precedente commento... sviluppare un motore grafico richiede anni e , purtroppo, ci vorrà un bel po prima che il motore di DoomIII sia superato. Dico purtroppo perchè fra qualche anno la situazione sarà simile... ci sarà hardware nuovo non sfruttato perchè lo standard saranno i motori che adesso impressionano ma che in futuro potrebbero essere ben superiori.

P.S.
uno dei due titoli in sviluppo è QuakeIV... poi il motore grafico è una cosa... il gioco un'altra. DoomIII come gioco non è ancora finito... probabilmente il motore grafico subisce ancora ritocchi e ottimizzazioni ma è finito.

DoomIII
12-04-2003, 12:07
Originally posted by "yossarian"

p.s.: forse non sarò normale; ti gioro, non ho intenzione di scandalizzarti, però a me, sinceramente, del fatto che "dovrebbe" uscire Doom III, non me ne può fregare di meno; se e quando uscirà valuterò se vale o meno la pena di comprarlo e mi regolerò di conseguenza.


figurati... gusti son gusti... ma intendi dire come gioco, che ovviamente può piacere o meno, o proprio non ti interessa nel senso che anche il motore grafico ti lascia del tutto indifferente?

Originally posted by "yossarian"


p.p.s.: secondo te, se l'NV30 ha tutte queste potenzialità inespresse, che emergeranno e sommergeranno (la concorrenza) con l'uscita dei titoli shader oriented, come mai nVIDIA sta lavorando all'NV35 che ha un'architettura HW piuttosto differente dall'NV30? Forse che neppure loro si sono resi conto di quello che potrebbero tirar fuori da questo chip?
Come mai hanno fatto uscire la versione Ultra che altro non è che l'NV30 overclockato e overvoltato? (non tirate fuori le storie delle frequenze, delle DDR2 e del processo a 0,13 u, poichè sono cose che non stanno in piedi: a 0,13 u si consuma meno e si scalda meno, le DDR2 lavorano a frequenze di core dimezzate rispetto alle DDR1 e sono state progettate per consumare meno, scaldare meno e, sopratttutto, costare meno).
Come mai nVIDIA ha iniziato a tirar fuori una serie di drivers che forzano la FP64 sull'NV30, per ottenere prestazioni superiori e punteggi più alti nei bench (a scapito della tanto decantata qualità cinematografica)?
Insomma, a tuo dire l'NV30 non va come dovrebbe con i giochi "vecchi" perchè ottimizzata per i "nuovi", a detta di Carmack ha bisogno di una modalità dedicata (infeiore come qualità) per andare un po' più forte dell'R300 con i giochi "nuovi". Quale sarà la conclusione? Creiamo tutti giochi FX optimized, fregandocene degli standard, e tutte le altre schede video, comprese le nVIDIA non NV30 based le buttiamo al cesso? Il mistero si infittisce, ossia l'affare si fa duro, cioè la situazione s'ingrossa
:pig: :pig: :pig: :pig: :pig:

La soluzione alla prossima puntata

:D :pig:

non ho detto che è ottimizzata per i nuovi... ho detto che non è ottimizzata per titoli T&L fixed-function ma che ha delle evoluzioni/ottimizzazioni negli shader...

poi scusa ma è tendenzioso quello che dici.. Carmack non ha detto che NV30 ha bisogno di una modalità specifica... semplicemente ha detto che era possibile utilizzare una modalità proprietaria cosa non possibile su R300 e questo è il motivo per il quale l'ha supportata... del resto mi sembra abbia dimostrato parecchia perplessità per la differenza di performance nella modalità ARB2 a vantaggio netto di R300.(si parla del doppio).
In tal senso ha detto che nVidia ha garantito che ci sono notevoli possibilità di miglioramento con driver nuovi... vedremo(potrebbe anche non essere ma personalmente penso di si)

cmq guarda... generalmente per me è irrilevante... aspetto proprio DoomIII per comperare un nuovo PC e nuova scheda grafica... probabilmente la generazione successiva all'uscita di DoomIII... quindi dopo l'uscita del gioco aspetterò ancora un po...
attualmente ti scrivo da un portatile (P4&Geforce4GO) che è il PC che uso di più anche se ne ho altri... e per giocare uso una X-Box... e DoomIII intanto me lo godrò li perchè mi trovo comodo comodo tranquillo tranquillo sulla poltrona con joypad... bel tv ecc.... :cool:

nanix78
12-04-2003, 12:07
doomIII :) ...approvo quasi tutto quel che dici. ;) ...sei uno che non molla mai per le giuste cause eh?? :D :D secondo me non vale + la pena discutere :rolleyes: ....vedrai che il tempo sara' la rivelazione e la guarigione di tutto....soprattutto per nvidia.... ;) :D



ciao

DoomIII
12-04-2003, 12:17
Originally posted by "cdimauro"

Per me c'è poco da continuare a discutere: i miei messaggi, infatti, vengono "stranamente" saltati a pié pari, salvo poi comparire dei "riferimenti" (frecciatine? ;)) in qualche testo. :rolleyes:

Non mi pare che manchino di informazioni tecniche e di logica: devo dedurre che sono inattaccabili, allora? :D


non era certo intenzione di nessuno ignorarti... anzi fanno piacere commenti interessanti e costruttivi... anche se poi non sono totalmente condivisi :p :rolleyes: ;)

Originally posted by "cdimauro"


Quanto al discorso della precisione, che è stato tirato in ballo "indirettamente", come dicevo poc'anzi, penso che un po' di studio del funzionamento dei pixel shader, accoppiato a un'indispensabile nozione di calcolo numerico, non farebbe male a quanti pensano che 16 bit di mantissa bastano e avanzano. Infatti, l'R300, avendo un output a 10 bit, presenterebbe soltanto 6 bit di precisione "addizionale" per tenere conto degli errori d'arrotondamento e dell'imprecisione derivata dall'utilizzo di funzioni trigonometriche, logaritmiche, ecc.

Se l'NV30 avesse un output ad 8 bit (! ;)) anziché a 10, rimarebbero 8 bit "addizionali": sempre pochi.


come ho già detto non è che per adesso mi interessi molto questa questione della precisione... sarà anche perchè... lo dico dopo

Originally posted by "cdimauro"


Infatti qual è il vantaggio principale dell'NV30 che viene sbandierato ai 4 venti, specialmente in questo thread? La possibilità di eseguire programmi shader "lunghi". Si parla di rapporti 7:1, e via dicendo ("dimendicando" anche l'F-Buffer dell'R350, stranamente... ;)).

Peccato che più elevato è il numero di istruzioni eseguite, più vengono introdotti errori nei calcoli, come ho già detto più volte. Risultato: la qualità finale va a farsi benedire... :rolleyes:


dopo dopo... cmq non dimentico l'R350 ma nemmeno NV30...

Originally posted by "cdimauro"


E per provare ciò che dico posso tranquillamente avvalermi di chi l'NV30 l'ha costruito e lo sta vendendo: nVidia. Recuperate tutte le immagini di lancio dell'NV30 in cui si faceva notare chiaramente la differenza fra un'immagine 3D generata con poca precisione e quelle generate con (l'NV30?) precisione maggiore: ai tempi erano abbastanza elequonti. Non so adesso se lo saranno altrettanto per tutti quelli che pensano che bastino 16 bit di precisione per avere un'ottima resa grafica. Eppure la fonte è la "vostra" casa madre... :D


ecco il punto... lancio , pubblicità ecc.... di cui proprio non mi sono interessato... è quasi casuale questa sequenza di miei post... NV30 non mi ha proprio mai interessato nè tanto meno l'R300... consapevole dei difetti del NV30 e del R300 ma non mi interessa acquistare nessuna delle 2 schede... è stato più che altro l'accanimento continuo in tutti post contro nVidia ad avermi infastidito e la presunzione di bollare come flop l'NV30 giudicando la sua inefficienza con gli shader e le novità DX9 basandosi su software che oltre a non avere niente di DX9 non è neanche shader oriented... il fatto che pur dando onore al R300 e non negando i difetti Nv30 se ci si permettavo solo di mettere in luce (e non parlo di miei post... ma di articoli riportati da riviste, siti web ecc....) qualche lato positivo del NV30 o anche del NV35 tutti gli Atisti insorgevano per infangare nVidia..... punto... stop...

Originally posted by "cdimauro"


Per il resto, visto che non ho ricevuto alcuna risposta in merito, sono curioso di sapere quali sono queste fantastiche innovazioni (shader avanzati) dell'NV30 rispetto alle DX9/R300 che possono cambiare radicalmente l'approccio alla creazione degli engine 3D e che tanto inficiano le prestazioni dei driver... A parte i loop e le subroutine, come ho già detto, per me non c'è assolutamente niente di esaltante: si tratta di innovazioni QUANTITATIVE, non QUALITATIVE. Insomma, non si passa dalla programmazione strutturata a quella ad oggetti, giusto per fare un esempio macroscopico.

So già anche questo messaggio sarà saltato a pié pari: contenti "voi"... :D "A chi vuol esser lieto, sia!" ;)

hmm... a livello di istruzioni shader,registri, modificatori, controlli di flusso, loop e subroutine ecc.... ho trovato interessanti novità...

DoomIII
12-04-2003, 12:27
Originally posted by "yossarian"


poichè l'F-Buffer, implementabile anche sull'R300, ribalta a favore di ATI questo rapporto (anche in questo caso, semplicemente ricompilando alcune righe di programma, senza ottimizzazione HW).


guarda questo sinceramente non mi risulta, che l'R300 abbia il supporto F-Buffer, cmq ne prendo atto.

Originally posted by "yossarian"


Se fosse più flessibile non avrebbe problemi con quello che tu definisci SW vecchio.

si ma non dimentichiamo che il software vecchio T&L/fixed function non è compatibile con gli shader... nella Gef3 per mantenere la compatibilità era stato incluso il core NV15 cosicchè se il software è T&L/FF gira nei vecchi circuiti mantenuti solo per compatibilità se è shader gira nel NV20.
Quando parlo di flessibilità degli shader... il T&L/fixed function non c'entra proprio niente...


Originally posted by "yossarian"


Inoltre la presunta superiorità dell'NV30 potrebbe risultare, al limite, solo in un maggior numero di istruzioni PS (quelle VS sono identiche a quelle dell'R300), quindi si tratterebbe di una superiorità.....dimezzata.

hmm... ti riferisci alla quantità... cmq le istruzioni supportate differiscono. :rolleyes:

^TiGeRShArK^
12-04-2003, 14:00
mi ricordi tanto un mio compagno di classe, molto bravo a parlare, ke ai tempi difendeva a spada tratta la superiorità dei MAC..... e mi pare che tu come lui :mc: Ricordati ke le parole nn servono a niente. Quello ke contano alla fine sono solo i fatti! Io nn sono un chiaroveggente, ma diciamo ke se nvidia continuerà su questa strada, senza correre ai ripari, dubito ke potrà riprendersi lo scettro di scheda video più veloce, e lentamente, ma inesorabilmente, continuerà a perdere quote di mercato in favore di ATI e delle altre case produttrici presenti e future (tieni conto che finora ho sempre azzeccato...sarà fortuna ma è dai tempi delle dispute di amiga vs pc, pc vs mac, dall'analisi delle scelte 3dfx, che bene o male ho sempre capito più o meno come sarebbe andata a finire.... certo c'è sempre la possibilità ke mi sbagli... cmq nvidia difficilmente farà la fine di 3dfx, visto ke ha anke altre fonti di introiti....tipo chip xbox e gli OTTIMI chipset nforce2). Non basta adagiarsi sugli allori e campare di rendita, come ci dimostra l'nv30.....
Cmq, ormai ke ci sono, un ultima cosa. C'era un forum (nn mi kiedete in quale sito, perkè nn mi ricordo proprio!) in cui si discuteva delle ottimizzazioni dei driver di nv30 sul 3dmark 2003, e, analizzando delle immagini del bench nature, era saltato fuori ke addirittura nv30 utilizzava degli interi anzichè dei fp..... io nn so se queste siano solo voci, oppure no, cmq vedendo quegli screenshot in effetti la differenza si notava visibilmente, soprattutto nel range dinamico del cielo e nella rappresentazione dell'acqua......Qdi mi chiedo, ke senso ha introdurre dei contenuti tecnologici avanzatissimi (come dici tu), in una skeda video, se poi nella realtà nn vengono sfruttate x niente per nn cadere nel ridicolo come prestazioni? Infine mi spieghi che senso ha confrontare nv30, ke inizia adesso a comparire su qualke raro scaffale, con r300, presente sul mercato da settembre, e non con r350? e poi magari vuoi confrontare r400 con nv40... nn dico ke nn si potrà fare( se ati avrà come minimo 6 mesi di ritardo sulla presentazione di r400) ma mi pare molto improbabile...

DjLode
12-04-2003, 14:04
A me sembra solo un gran maleducato che insulta e non chiede scusa. Io ho avuto l'umiltà di ammettere di avere sbagliato, evidentemente è troppo in alto rispetto ad altri e fa fatica a scendere.
Sto ancora aspettando edit e scuse.

DoomIII
12-04-2003, 17:24
Originally posted by "cdimauro"

A questo punto aggiungo pure la mia: secondo me l'architettura dell'NV30 non è così innovativa rispetto allR300, e specialmente rispetto all'R350. Il motivo? Basta confrontare le estensioni introdotte rispetto alle DX9 implementate dell'R300.

[quote="cdimauro"]
L'unica cosa che QUALITATIVAMENTE è interessante è rappresentata dalla gestione dei loop/subroutine. Per il resto, il fatto che possa eseguire più istruzioni vertex/pixel shader è soltanto un fattore QUANTITATIVO. Il fatto che abbia tutti i registri Floating Point anziché un mix FP/Intero, è anch'esso un fattore QUANTITATIVO. Il fatto che possa utilizzare tutte le funzioni sia per i vertex che per i pixel shader (cioé: le unità FP sono tutte uguali), è anch'esso un fattore QUANTITATIVO. E posso ancora continuare confrontando le restanti caratteristiche.


loop e subrountine sono una figata che assieme ad altre chicche ben si sposa con la filosofia nVidia che vuole ben astrarre la programmazione shader portandola ad un alto livello.

Originally posted by "cdimauro"


Un miglioramento di tipo qualitativo implica un diverso modo di sfruttare e gestire una cosa. Avere 65536 istruzioni Vertex Shader anziché 1024 non implica, invece, una diversa metodologia di utilizzo; è come se la memoria fosse passata da 1K a 64K: se sapevo utilizzarne 1K, saprò utilizzarne 64K perché concettualmente per me sono la stessa cosa. Spero che sia chiaro.


hmm... si ok

Originally posted by "cdimauro"


Ecco perché non mi convince il fatto che con i futuri driver possano sfruttare meglio l'architettura dell'NV30: non vedremo grandi miglioramenti, e quindi grandi variazioni percentuali...

ma infatti il discorso numero di istruzioni è molto relativo... è proprio in virtù dell'architettura stessa che sono probabili notevili miglioramenti di performance con nuovi driver.

Originally posted by "cdimauro"


Resta, poi, il fatto che le standard, e non smetterò mai di riperterlo, sono le DX9, non le 9+ dell'NV30 o le 9++ dell'R350, per cui cose come i loop le subroutine non verranno sfruttati dalle applicazioni...

Se a ciò aggiungiamo anche il fatto che la maggior parte delle applicazioni sono DX7 e poche DX8, arriviamo alla conclusione che l'NV30 non è e non sarà mai una buona architettura.


bè non puoi dire che è un architettura cattiva solo perchè non ha software... al limite puoi dire che è inutile o sono soldi buttati via... ma questo non nega poi quella che può essere la bontà dell'architettura.
Poi piano... NV30 ha istruzioni shader per i controlli di flusso dinamici/statici cosa che R300 non ha... nel senso che R300 ha alcune istruzioni per i controlli di flusso statici di specifica DX9 VS2 mentre NV30 ha altre istruzioni che offrono una flessibilità maggiore e sono compatibili VS2 e VS3, queste sono si oltre le attuali DX9 perchè gli shader delle DX9 sono versione 2... esiste però anche la versione 3 degli shader sempre delle DX9 che ha nelle specifiche le istruzioni di controllo di flusso dinamico per le quali NV30 ha il supporto.
Probabilmente ci sarà in un futuro un upgrade delle DX9 alla versione 3 degli shader... ma le specifiche esistono già.


Originally posted by "cdimauro"


Infatti, se un gioco sfrutta le DX7, comunque internamente la GPU utilizzerà le sue unità FP/intere per portare a termine le operazioni. Infatti le unità FP/Intere sono condivise da qualunque tipo di "codice" che viene fatto girare, sia fixed-function sia shader 8/9. L'NV30 è così scarso rispetto al clock di 500Mhz, perché molto probabilmente le unità FP/Intere sono DI MENO rispetto all'R300. Infatti rozzamente si può capire che l'NV30 implementa 3 Vertex Shader, mentre l'R300 ben 4, tanto per fare un esempio.
Bastano queste spiegazioni per giustificare il mio punto di vista? Per favore, non mi si venga a dire adesso: non sei informato, non hai letto nessuna documentazione, ecc. ecc. Ne ho letta abbastanza. Questo è quello a cui sono arrivato, e non mi pare di avere sparato delle cazzate...
hmm... non sei informato, non hai letto nessuna documentazione... è vai a studiare fannullone. ;)

non ho niente in contrario contro il tuo punto di vista... tu hai il tuo io ho il mio. :)

DoomIII
12-04-2003, 17:40
Originally posted by "^TiGeRShArK^"

mi ricordi tanto un mio compagno di classe, molto bravo a parlare, ke ai tempi difendeva a spada tratta la superiorità dei MAC..... e mi pare che tu come lui :mc: Ricordati ke le parole nn servono a niente. Quello ke contano alla fine sono solo i fatti! Io nn sono un chiaroveggente, ma diciamo ke se nvidia continuerà su questa strada, senza correre ai ripari, dubito ke potrà riprendersi lo scettro di scheda video più veloce, e lentamente, ma inesorabilmente, continuerà a perdere quote di mercato in favore di ATI e delle altre case produttrici presenti e future (tieni conto che finora ho sempre azzeccato...sarà fortuna ma è dai tempi delle dispute di amiga vs pc, pc vs mac, dall'analisi delle scelte 3dfx, che bene o male ho sempre capito più o meno come sarebbe andata a finire....

eheheh... beh... non avrei difeso la superiorità dei MAC... cmq similmente a te posso dirti che anch'io sin'ora non mi sono sbagliato... ho amici RL con i quali spesso e volentieri faccio confronti a parole, via mail ecc... (anche pesanti perchè per noi è quasi un gioco) ma ad ogni modo quando si tratta di acquistare in virtù del fatto che mi conoscono da anni e sanno che sin'ora ho sempre azzeccato se devono fare acquisti generalmente si basano su quello che dico io... e non sono amici icompetenti anzi...

Originally posted by "^TiGeRShArK^"


certo c'è sempre la possibilità ke mi sbagli... cmq nvidia difficilmente farà la fine di 3dfx, visto ke ha anke altre fonti di introiti....tipo chip xbox e gli OTTIMI chipset nforce2). Non basta adagiarsi sugli allori e campare di rendita, come ci dimostra l'nv30.....
Cmq, ormai ke ci sono, un ultima cosa. C'era un forum (nn mi kiedete in quale sito, perkè nn mi ricordo proprio!) in cui si discuteva delle ottimizzazioni dei driver di nv30 sul 3dmark 2003, e, analizzando delle immagini del bench nature, era saltato fuori ke addirittura nv30 utilizzava degli interi anzichè dei fp..... io nn so se queste siano solo voci, oppure no, cmq vedendo quegli screenshot in effetti la differenza si notava visibilmente, soprattutto nel range dinamico del cielo e nella rappresentazione dell'acqua......

per me infatti ti sbagli :p ;)
non entro nei meriti del 3dmark 2003... IMHO è un bench insulso... ripeto IMHO.


Originally posted by "^TiGeRShArK^"


Qdi mi chiedo, ke senso ha introdurre dei contenuti tecnologici avanzatissimi (come dici tu), in una skeda video, se poi nella realtà nn vengono sfruttate x niente per nn cadere nel ridicolo come prestazioni? Infine mi spieghi che senso ha confrontare nv30, ke inizia adesso a comparire su qualke raro scaffale, con r300, presente sul mercato da settembre, e non con r350? e poi magari vuoi confrontare r400 con nv40... nn dico ke nn si potrà fare( se ati avrà come minimo 6 mesi di ritardo sulla presentazione di r400) ma mi pare molto improbabile...
bè, bisogna pur andare avanti... che senso aveva introdurre contenuti tecnologici nel NV20 come gli shader? il discorso è lo stesso...
quello che non ha senso è pretendere di giudicare questi contenuti con bench non adatti.

Per i confronti è cmq questione di generazioni... ma mi va benessimo NV30 vs R350 esattamente come mi va altrettanto bene NV35 vs R350.

poi perchè ti pare improbabile uno scontro R400 vs NV40? io mi auguro per Ati che riesca ad esserci in tempo... nVidia ha già da un po NV35 e sta risolvendo molti problemi dovuti ai progressi. (vedi TMSC ed accordi con IMB) Ati in tal senso mi sembra molto consapevole di non essere all'altezza (non lo sto dicendo con tono offensivo) e non mi pare sia pronta per forti evoluzioni che includerebbero sicuramente un cambio del processo produttivo ecc... ecc... del resto proprio per R400 sempre che l'uscita sia molto molto lontana... e prima o poi Ati dovrà affrontare i problemi che nVidia ha affrontato con NV30... ma nVidia li ha risolti ed è pronta a goderne i benefici con la prossima generazione.
Non dimentichiamo infatti che il ritardo del NV30 è stato dovuto all'incapacità di TMSC di soddisfare i requisiti di sviluppo del chip che ha costretto in fretta e fuoria nVidia a ridisignare il chip stesso e a muoversi trovando ad esempio accordi con IBM.

cdimauro
12-04-2003, 20:40
Originally posted by "DoomIII"



come ho già detto non è che per adesso mi interessi molto questa questione della precisione... sarà anche perchè... lo dico dopo

A me interessa molto invece, perché è fondamentale per ottenere risultati grafici qualitativamente elevati rispetto al "passato". E non mi riferisco solamente ai giochi, ma anche alle applicazioni professionali...


ecco il punto... lancio , pubblicità ecc.... di cui proprio non mi sono interessato... è quasi casuale questa sequenza di miei post... NV30 non mi ha proprio mai interessato nè tanto meno l'R300... consapevole dei difetti del NV30 e del R300 ma non mi interessa acquistare nessuna delle 2 schede... è stato più che altro l'accanimento continuo in tutti post contro nVidia ad avermi infastidito e la presunzione di bollare come flop l'NV30 giudicando la sua inefficienza con gli shader e le novità DX9 basandosi su software che oltre a non avere niente di DX9 non è neanche shader oriented...

Beh, mi devi scusare, ma dopo tutte le prove effettuate non è che si possa definire diversamente l'NV30. L'NV30 è uscito ora e per forza di cosa si deve confrontare con il software esistente ADESSO. Punto.

"Del futur non v'è certezza..." ;)


hmm... a livello di istruzioni shader,registri, modificatori, controlli di flusso, loop e subroutine ecc.... ho trovato interessanti novità...

Come ho già detto, a parte loop e subroutine (e un po' anche i controlli di fluppo), non vedo delle innovazioni concrete e "rivoluzionarie". Parlo di roba che faccia gridare: "CHE MERAVIGLIA" ad un programmatore.

Insomma, come quando si passò dal C64 all'Amiga, per intenderci.

Per cui, mi devi scusare se te lo ripeto, ma non trovo l'NV30 così interessante come architettura. E parlo da programmatore, non da utente... ;)

cdimauro
12-04-2003, 21:04
Originally posted by "DoomIII"


loop e subrountine sono una figata

L'ho già detto da parecchio tempo: sono le uniche innovazioni "decenti" dell'NV30. Ma non rivoluzionarie...

che assieme ad altre chicche

Quali?

ben si sposa con la filosofia nVidia che vuole ben astrarre la programmazione shader portandola ad un alto livello.

Alto livello = maggior lentezza di esecuzione.

Non sto qui a ripetere per l'ennesima volta in che modo lavora un compilatore, la teoria che sta alla base della generazione automatica del codice e il processo di ottimizzazione del codice eseguibile.

Se mastichi qualcosa di informatica di "alto livello" :), dovresti sapere che quello della generazione del codice ottimale è un problema NP-Completo. Non dico altro. ;)

Anzi, no: mi pare che il compilatore GNU abbia una forma di generazione del codice che viene definita "euristica". Nella documentazione c'è scritto che i tempi di esecuzione aumentano mostruosamente e che è sconsigliabile il suo utilizzo. Chissà perché... ;)



ma infatti il discorso numero di istruzioni è molto relativo... è proprio in virtù dell'architettura stessa che sono probabili notevili miglioramenti di performance con nuovi driver.

Allora non ci siamo capiti: analizzando l'architettura non capisco in che modo nVidia riuscità mai a sviluppare dei driver che permettano di ottenere un boost NOTEVOLE delle prestazioni.

Le applicazioni sono DX 7, 8, 8.1 e 9. L'architettura dell'NV30 è quello che è, gli ingegneri di nVidia sono pur sempre degli esseri umani, non dei maghi: non si scappa. Per cui non vedo in che modo nVidia riuscirà a migliorare la situazione.

Anzi no, un modo c'è: quando uscirà l'NV35 lascerà cadere il discorso perché sarà impegnata a sfornare i driver per il suo "nuovo" gioiellino... :(


bè non puoi dire che è un architettura cattiva solo perchè non ha software...

Non ho detto questo. Ho detto che non è buona perché non fa girare bene qualunque tipo di applicazione, vecchio o nuovo che sia.

Il problema è che all'NV30 mancano proprio le risorse hardware per avere prestazioni decenti ANCHE col vecchio software. Altrimenti non farebbe queste figuracce...

al limite puoi dire che è inutile o sono soldi buttati via...

Questo è poco, ma sicuro...

ma questo non nega poi quella che può essere la bontà dell'architettura.

Ma perché bisogna nuovamente andare a riprendere gli stessi discorsi? Possibile che con tutti i messaggi che ho scritto (e anche altre persone), non sei riuscito a farti un'idea concreta del perché quest'architettura non è e non può essere considerata "buona"?

Capisco che sei affezionato agli shader, ma bisogna essere freddi e calcolatori nel giudicare una cosa: non ci si può lasciar trascinare dalla "passione".


Poi piano... NV30 ha istruzioni shader per i controlli di flusso dinamici/statici cosa che R300 non ha... nel senso che R300 ha alcune istruzioni per i controlli di flusso statici di specifica DX9 VS2 mentre NV30 ha altre istruzioni che offrono una flessibilità maggiore e sono compatibili VS2 e VS3, queste sono si oltre le attuali DX9 perchè gli shader delle DX9 sono versione 2... esiste però anche la versione 3 degli shader sempre delle DX9 che ha nelle specifiche le istruzioni di controllo di flusso dinamico per le quali NV30 ha il supporto.
Probabilmente ci sarà in un futuro un upgrade delle DX9 alla versione 3 degli shader... ma le specifiche esistono già.

OK, ma cosa cambia? Cambia così radicalmente la vita di un programmatore?

La risposta, dopo tutto quello che è stato scritto, dovresti conoscerla già...


hmm... non sei informato, non hai letto nessuna documentazione... è vai a studiare fannullone. ;)

In effetti anche dopo più di vent'anni passati a programmare, ci sono sempre tante cose nuove da imparare... eheheh ;)


non ho niente in contrario contro il tuo punto di vista... tu hai il tuo io ho il mio. :)

E' questo che mi addolora: se parliamo di un argomento ben preciso e ognuno espone le proprie idee, prima o poi si dovrà arrivare a delle conclusioni. La ragione dove sta? Dalla parte di qualcuno...

Ora, mi pare di avere spiegato abbastanza chiaramente il mio punto di vista. E le cose che ho detto portano a conclusioni abbastanza diverse dalle tue. Non sei riuscito a smontare le mie affermazioni: sono ancora lì in piedi, e contestano dei precisi punti dei tuoi ragionamenti.

Ad esempio il discorso sulla precisione l'hai lasciato cadere completamente: eppure ho fornito dei dati e delle implicazioni logiche perfettamente mirate, e quella sul funzionamento degli shader e le nozioni di calcolo numerico non era una semplice battuta...

Insomma, a me sta bene discutere, ma che si arrivi ad una conclusione "ragionata, logica e scientifica": altrimenti è tutto tempo perso. Chiudiamola qui e facciamo finta che non abbiamo mai parlato.

Sei d'accordo almeno su questo? :)

^TiGeRShArK^
13-04-2003, 20:07
si ma io mi riferivo al fatto ke ritengo improbabile lo scontro nv40 r400 xkè + probabilmente r400 si andrà a scontrare (come finestra temporale) con nv35, a meno di ritardi imprevisti da parte di ati....

yossarian
14-04-2003, 17:09
Originally posted by "DoomIII"



guarda questo sinceramente non mi risulta, che l'R300 abbia il supporto F-Buffer, cmq ne prendo atto.



L'R300 non ha il supporto in HW all'F-Buffer, semplicemente perchè non ha un buffer dedicato a quella funzione. L'R300 ha, però un buffer sufficientemente ampio e poco sfruttato (quello usato per il multitexturing) una parte del quale può essere dedicata ad assolvere la funzione di F-Buffer. Ti assicuro che finchè non si iniziasse a far ricorso al mltitexturingo con almeno 12/14 textures per pixel p.s.p., non si noterebbe alcuna differenza con l'R350.

Originally posted by "DoomIII"



si ma non dimentichiamo che il software vecchio T&L/fixed function non è compatibile con gli shader... nella Gef3 per mantenere la compatibilità era stato incluso il core NV15 cosicchè se il software è T&L/FF gira nei vecchi circuiti mantenuti solo per compatibilità se è shader gira nel NV20.
Quando parlo di flessibilità degli shader... il T&L/fixed function non c'entra proprio niente...




Guarda che nall'NV20, il famoso TL fixed functiona cui ti riferisci è semplicemente un'unità per il calcolo dei vertici (i PS non c'entrano assolutamente nulla), unità che nell'NV25 è stata sostiutita da una seconda unità VS. Questo perchè fino alle DX7 il caclo dei vertici dei poligoni era a completo carico della cpu. Stando al tuo discorso, con SW DX7 la GF2 dovrebbe andare più della GF3 e questa più della GF4 (visto che l'NV30 va meno dell'R300 per problemi di compatibilità col vecchio SW). Non credo che il discorso stia in piedi.
Inoltre non mi pare che hai risposto alle domande che ho posto qualche intervento fa. Mi pare che tu riponga più aspettative nell'NV30 di qualnte ne riponga nVIDIA stessa (che ha overclockato chip e ram per avere più prestazioni, invece di far uscire drivers miracolosi che ha avuto 6 mesi per studiare)

yossarian
14-04-2003, 17:32
Originally posted by "DoomIII"





hmm... ti riferisci alla quantità... cmq le istruzioni supportate differiscono. :rolleyes:

Non in modo determinante come pensi. I presunti numeri alti servono solo a gettare fumo negli occhi. L'NV30 è un ibrido dal punto di vista della compatibilità perchè va oltre le DX9 rev 1.0 e si posiziona tra la rev 2.0 e la 3.0 (non c'entrano assolutamente niente i PS 3.0 di cui parli, che non sono assolutamente supportati dall'NV30). Ti faccio notare che anche l'R300 va oltre la rev 1.0 e si posiziona quasi al livello della rev 2.0, quindi non molto al disotto dell'NV30 (sicuramente non quanto vuoi far credere).
La differenza sta nell'architettura HW (ma non negli shader, bensì nell'ampiezza della bandwidth e nel numero di pixels elaborati p.s.p. che sono 8 contro 4 a favore dell'R300); a parità di frequenza non ci sarebbe storia come non c'è storia tra NV30 e NV35 a pari frequenza. Questa è una dimostrazione concreta di efficienza dell'archiitettura. L'NV30 ha meno unità PS, meno unità VS, meno bandwidth rispetto all'R300: questi sono dati di fatto. Hanno tentato di ovviare a queste carenze aumentando le frequenze di funzionamento: questo è un dato di fatto. Si sono accorti che nonostante l'overclock restavano pesanti limitazioni e hanno iniziato a lavorare all'NV35 con architettura diversa dall'NV30: questo è un dato di fatto. Con applicazioni OGL 1.4 (le più recenti attualmente in uso per grafica pro e non ancora utilizzate nei giochi, l'NV30 ha bisogno di una modalità dedicata per andare un po' più veloce dell'R300, pur avendo un clock del 54% superiore e a scapito della qualità (v. Doom 3): questo è un dato di fatto.
Se vogliamo dire cge col SW che girerà tra dieci anni l'NV30 dimostrerà le sue potenzialità siamo liberi di affermarlo e di crederci. Resttano però discorsi sterili e speculazioni prive di fondamento.
La Radeon 256 era molto più avanti della GF2, eppure non ha mai trovato applicazini in grado di sfruttarla per farla andare più veloce.
Tu sei convinto che l'evoluzione seguirà il solco tracciato da nVIDIA, ma non vedo su cosa puoi basare questa convinzione. Se sul fatto che qualche SWHouse, forse (e sottolineo forse), introdurrà ottimizzazioni per l'NV30, allora sei fuori strada. Gli standard non li fissa nè nVIDIA, né IDSoftware, né Epic, Nè tantomeno EA; fino a prova contraria gli standard sono fissati da Microsoft e dal consorzio che si occupa delle specifiche OpenGL.

yossarian
15-04-2003, 00:24
Per DoomIII
l'immagine che hai postato in cui c'è scritto che la 9700 ha bisogno di 7 passate là dove all'FX ne è sufficiente una sola, la conosco molto bene, e ti assicuro che non avvalora affatto la tua tesi sulla presunta maggior efficienza dell'NV30. Quel rapporto 7:1 è giustificato solo dall'impossibilità dell'R300 di utilizzare PS con istruzioni di una determinata lunghezza. Questo problema è stato abbondantemente superato dall'R350 che è teoricamente in grado di applicare PS di lunghezza infinita (anche se in pratica non è così). Il tutto senza stravolgere nulla dell'architettura estremamante efficiente dell'R300. Perciò ti ho detto che l'F-Buffer ha ribaltato il rapporto tra i due chip.
Vorrei chiarire (se mi riesce), la questione su cosa sono questi benedetti shader di cui si parla tanto (forse pure troppo).
I chip fino alla generazione DX7 non avevano unità per il calcolo dei vertici ma solo pipelines per l'applicazione delle textures. Queste pipelines erano strutturate in modo da poter eseguire solo determinate operazioni in virgola fissa. Col passaggo alla generazione DX8 le pipelines per l'elaborazione dei pixels sono state modificate e rese in grado di eseguire anche operazioni in virgola mobile, con una determinata approssimazione; di conseguenza è anche cresciuto il numero delle operazioni che queste pipelines erano in grado di compiere oltre, naturalmente, alla precisione di calcolo. Questa però non rappresenta una particolare innovazione, ma semplicemente un'evoluzione della precedente generazione di pipelines. La vera novità è stata l'introduzione di una pipeline (nell'NV20) per il calcolo dei vertici, operazione che prima era eseguita dalla cpu. Si è quindi iniziato a parlare di PS e VS che altro non sono se non i programmi a basso livello delle pipelines che si occupano di textures e vertici. I giochi DX6 o DX7 che non avevano il supporto VS, continuavano ad utilizzare, per il calcolo dei vertici, la cpu; pertanto l'unità VS restava inoperosa.
Con la successiva generazione, si è abbandonato definitivamente il supporto al TL "statico". Questo non vuol dire che le schede video di questa e delle generazioni future non sono compatibili con le DX6 o le 7; significa semplicemente una maggior flessibilità di calcolo da parte delle pipelines deputate al calcolo delle textures che sono in grado di eseguire sia le fixed function che quelle "programmabili"; per quanto riguarda i vertex engine, ovviamente un gioco DX7 continuerà a non utilizzarli e a far ricorso alla cpu (con tutti i limiti qualitativi e velocistici che da ciò derivano).
Quindi non è assolutamente vero che un chip più è avanzato e più ha problemi con il SW vecchio, e noon è neppure vero che all'interno degli attuali chip (escluso l'NV30 a sentire Doom III) ci siano una o più unità TL "statiche". Insomma, una situazione del tipo R300 con 8 unità PS, 4 unità VS, 8 pipelines TL statiche, ossia 8 unità TL, è del tutto improponibile.

yossarian
15-04-2003, 00:38
Originally posted by "DoomIII"




hmm... penso che principalmente attualmente i benefici in evoluzioni tecnologiche a quel livello siano principalmente visibili con software T&L più che con software shader... cmq su questi aspetti dell'architettura non hai tutti i torti... ma io personalmente ritendo NV30 un chip di passaggio e lo riterrei così anche se fosse stato come doveva essere... quindi lo ritengo ancor più transitorio in virtù dei problemi avuti in produzione poichè TMSC non ha potuto soddisfare i requisiti nVidia per la realizzazzione del suddetto chip... cosa che ha costretto in fretta e furia a rivedere vari aspetti del NV30 stesso.




Il ritardo sull'uscita dell'NV30 sono dovuti solo in parte a TSMC. L'FX5800 era già pronto a metà settembre, perfettamente funzionante. Però non è mai stato presentato. Si è aspettato novembre per dettare le specifiche dell'FX5800 Ultra (versione overclockata del precedente) e si è aspettato gennaio per far uscire i bench di quest'ultimo. Questo la dice lunga su quali sono state le vere difficoltà di nVIDIA)
Sul fatto che l'NV30 sia un chip di transizione hai ragione, però lo è anche l'R300 e lo sono anche l'R350 e l'NV35. Sono chip, in alcuni casi, veloci fino a 4 volte rispetto a quelli della generazione precedente e che promettono una qualità nettamente superiore. Peccato che non abbiano la potenza sufficiente per mantenere ciò che promettono. Pur essendo full DX9 non sarebbero mai in grado di far girare fluidamente un'applicazione che utilizzi al massimo le specifiche DX9. Uno dei motivi del ventilato ritardo sull'uscita dell'R400 è proprio quello di arrivare ad ottenere determinate caratteristiche per evitare di ritrovarsi con 2 chip "di transizione" (R300 e R350 non possono essere considerati realmente diversi). Nei progetti di ATI il vero chip full DX9 è l'R400, così come per nVIDIA dovrebbe essere l'NV40. L'attuale generazione è DX9 full compliant ma ha potenza sufficiente a far girare fluidamente applicazioni con specifiche un po' superiori a quelle DX8.1