View Full Version : TEST GEFFO FX ULTRA CONTRO RADEON 9800 SU PC PROFESSIONALE!!
davidemetal
04-04-2003, 16:19
Volevo sapere come commentate i risultati ottenuti nel test di Pc Professionele, dove la Fx Ultra sta alla pari ed in alcuni test supera la 9800 Pro
Legolas84
04-04-2003, 16:22
Si commentano da soli! :rolleyes:
Golden American
04-04-2003, 16:23
sono completamente sballati.....da notare come nella rivista la 9800pro sia + veloce sdella fx senza AA e con AA invece sia + veloce la FX....imho hanno fatto un bel casino con i settaggi....performance e quality!
e' l'unica spiegazione....tutti dicono il contrario tra un po' lo constatero' di persona :pig:
no...mica la compro la fx....me la prestano :D
Configurazione di prova: nvidia detonator 42.68 - driver catalyst 3.0
L'unica domanda è: perchè i cata 3.0 con la 9800?
hanno messo i più lenti catalist per la 9800 e i più veloci deto per la fx :rolleyes: :rolleyes: :rolleyes:
ByeZ!
Originally posted by "rera"
Configurazione di prova: nvidia detonator 42.68 - driver catalyst 3.0
L'unica domanda è: perchè i cata 3.0 con la 9800?
Questo non fa altro che rafforzare la mia tesi che a parte rare eccezzioni (Dev e poche altre...) che le riviste di computer in edicola non servono ad una mazza o non ne capiscono una mazza...
conan_75
04-04-2003, 17:52
La GFFX guadagna molto sui giochi solo con i 43.45.
Idem la Radeon con i Cata 3.2.
Non ho visto la prova, su che applicazioni si basa?
Originally posted by "Darkman"
Questo non fa altro che rafforzare la mia tesi che a parte rare eccezzioni (Dev e poche altre...) che le riviste di computer in edicola non servono ad una mazza o non ne capiscono una mazza...
Leggi la review di TGM devo dire che con le VGA ci beccano sempre, seppure non alleghino mai numeri.
sanitarium
04-04-2003, 17:57
Originally posted by "rera"
Configurazione di prova: nvidia detonator 42.68 - driver catalyst 3.0
L'unica domanda è: perchè i cata 3.0 con la 9800?
E fortuna che si chiama PC PROFESSIONALE... :rolleyes:
I primi driver a riconoscere correttamente la 9800pro come tale sono i 3.2, e allora perché non usare quelli se si voleva fare un test davvero imparziale?
Graphics Winmark 99 (1024*768) business e high end
3d Winmark 2000 1.1 (32 bit)@ 1024*768 - 1280*1024 - 1600*1200
Quake III Arena (32 bit filtro trilineare) @1024*768 - 1280*1024 - 1600*1200
Codecreatures (antialiasing 4x per Raddy/ 4x, quincunx e 4xs per FX)@1024*768 - 1280*1024 - 1600*1200
-=Krynn=-
04-04-2003, 18:09
Originally posted by "Darkman"
Questo non fa altro che rafforzare la mia tesi che a parte rare eccezzioni (Dev e poche altre...) che le riviste di computer in edicola non servono ad una mazza o non ne capiscono una mazza...
è che, a differenza dei siti web, stmpare su carta costa, e le riviste qualhe sponsor lo devono avere.... :rolleyes:
La mia stima per PcProfessionale e' talmente bassa che mi viene il mal di schiena solo all'idea di doverla illustrare.
E' inaccettabile recensire una scheda con quelle modalita'. Da che mondo e mondo, a meno di casi eccezionali (es. quando non esistono ancora driver che supportino *ufficialmente* la scheda in esame) si va sul sito del marchio e si scaricano gli ULTIMI driver ufficiali rilasciati.
Di conseguenza il radeon _doveva_ venire testato coi 3.2, il gffx coi 43.45.
E' ovvio che i numeri ottenuti da PcProfessionale siano totalmente incongruenti e lontani dalla realta', andando a punire il radeon9800pro che proprio non si merita un trattamento del genere.
Comunque alla fine danno un colpo al cerchio e uno alla botte. Le schede sono valutate pari, con vantaggio leggero per il raddy senza filtri e a risoluzioni "basse", e vantaggio per il GFFX con i filtri e alle alte risoluzioni.
il che non corrisponde minimamente a verità :p
ByeZ!
sanitarium
04-04-2003, 18:47
Originally posted by "ATi7500"
il che non corrisponde minimamente a verità :p
ByeZ!
Esatto! :D
pensare che io tempo fa stimavo pc professionale :cry:
sanitarium
04-04-2003, 18:50
Originally posted by "Gen.Web"
pensare che io tempo fa stimavo pc professionale :cry:
Non te la prendere, nessuno è perfetto! :D
avreste dovuto leggere la comparativa di Gennaio 2003.....lo spettro del GFFX aleggiava su tutto...mamma che paura!
Originally posted by "CS25"
La mia stima per PcProfessionale e' talmente bassa che mi viene il mal di schiena solo all'idea di doverla illustrare.
E' inaccettabile recensire una scheda con quelle modalita'. Da che mondo e mondo, a meno di casi eccezionali (es. quando non esistono ancora driver che supportino *ufficialmente* la scheda in esame) si va sul sito del marchio e si scaricano gli ULTIMI driver ufficiali rilasciati.
Di conseguenza il radeon _doveva_ venire testato coi 3.2, il gffx coi 43.45.
E' ovvio che i numeri ottenuti da PcProfessionale siano totalmente incongruenti e lontani dalla realta', andando a punire il radeon9800pro che proprio non si merita un trattamento del genere.
ma quanto manca alla tua rece?
Kublai11
04-04-2003, 19:45
Sono d'accordo con voi. Pc professionale secondo me non può essere considerata attendibile quando si parla di schede video. E' chiaro che la rivista è a favore di nvdia. Questo fatto dei driver è spiegabile soltanto supponendo che volessero indebolire il più possibile la 9800 e avvantaggiare la fx. E chissà che razza di settaggi hanno utilizzato......
Peccato che facciano queste cose. Peccato soprattuto per loro. E poi, perdonatemi l'OT, ma quanta pubblicità c'è su quella rivista!!?? Su 300 pagine, 200 sono di pubblicità....
Ciao
aspetto anch'io la recensione di CS25, spero faccia presto!
Originally posted by "rera"
aspetto anch'io la recensione di CS25, spero faccia presto!
Spero di no, spero che faccia la + lunga review mai vista ;)
Originally posted by "pandyno"
Spero di no, spero che faccia la + lunga review mai vista ;)
in modo da dire tutto, ma proprio tutto della scheda? spero anch'io, ma sono anche molto molto curioso (sai ho un amico che va a taiwan....)
comunque recensioni fatte a metà come quella di PC Professionale non mi vanno molto a genio.
PSYCOMANTIS
04-04-2003, 21:05
Questa non la dovevano fare! Basta! Non la compro piu' quella rivistuccia. Con quei soldi mi ci compro un bel porn@zzo...... :D
yossarian
04-04-2003, 21:33
Originally posted by "rera"
avreste dovuto leggere la comparativa di Gennaio 2003.....lo spettro del GFFX aleggiava su tutto...mamma che paura!
stai per caso parlando di quell'interessante :sofico: articolo che doveva fare una panoramica dell'allora attuale situazione delle schede video e parlava per due pagine dell'NV30 e in una pagina e mezza, in tutto, riassumeva caratteristiche pregi e difetti di tutte le altre messe insieme? :rolleyes:
:D
parlo proprio di quello. pagine su nv30 come a dire queste vanno bene, ma quando arriva l'fx......bastonate per tutti!
sanitarium
04-04-2003, 22:49
Originally posted by "PSYCOMANTIS"
Questa non la dovevano fare! Basta! Non la compro piu' quella rivistuccia. Con quei soldi mi ci compro un bel porn@zzo...... :D
Viste le recensioni "professionali", comprare un porn@zzo è sicuramente un investimento più saggio! :D
yossarian
04-04-2003, 23:08
Originally posted by "sanitarium"
Viste le recensioni "professionali", comprare un porn@zzo è sicuramente un investimento più saggio! :D
e anche più salutare :pig:
:D
Dipende... magari qualche dolorino in più salta fuori :)
Originally posted by "pandyno"
Spero di no, spero che faccia la + lunga review mai vista ;)
No, nessuna mira tanto spudorata, anzi piu' vado avanti piu' vorrei tornare indietro ed ampliare ulteriormente i test... ma cosi' facendo non finiro' mai.
Ora come ora l'ultima cosa che m'e' rimasta da fare e' di trovare un programma valido per gli shots in anisotropic filtering, in quanto ho la netta impressione che Serious Sam 2 mi odi visto che si rifiuta di applicare i settaggi che interessano a me :(
Continuero' la ricerca, mi sa che usero' UT2003...
JENA PLISSKEN
04-04-2003, 23:57
PC PRO...io NN lo compro + da una vita ;)
Jaguar64bit
05-04-2003, 00:02
Originally posted by "JENA PLISSKEN"
PC PRO...io NN lo compro + da una vita ;)
Io Pc Professionale lo compro x il reparto tolette......., una lettura veloce ed e' meglio di una purga...... :D :sofico: :D
Originally posted by "CS25"
No, nessuna mira tanto spudorata, anzi piu' vado avanti piu' vorrei tornare indietro ed ampliare ulteriormente i test... ma cosi' facendo non finiro' mai.
Ora come ora l'ultima cosa che m'e' rimasta da fare e' di trovare un programma valido per gli shots in anisotropic filtering, in quanto ho la netta impressione che Serious Sam 2 mi odi visto che si rifiuta di applicare i settaggi che interessano a me :(
Continuero' la ricerca, mi sa che usero' UT2003...
lol... evvai con schede grafiche nuove... e con software vecchio che non sfrutta niente delle nuove estensione ...ed in realtà appena marginalmente delle vecchie nel senso che di shader c'è ancora poco... il vecchio T&L con le sue fixed function regna ancora sovrano...
ma che bello... ci sono schede nuove con circuiti vari più circuiti mantenuti solo per compatibilità... facciamo tanti bei test sui circuiti vecchi per vedere il software vecchio dove gira meglio...
... a buon intenditor...
certo i 2 gioielli sono + o - allo stesso livello... Ati ha ottimizzato degnamente la parte vecchia... nVidia sta cercando di correre avanti... ma purtroppo il software è ben che vecchio... ad ogni modo sulle cose nuove i risultati nVidia sono leggermente migliori... delle cose vecchie personalmente non me ne frega niente... e non ho certo intenzione di comperare una scheda grafica nuova per 'non sfruttarla' facendovi girare software che è supportato per retrocompatibilità.
Originally posted by "DoomIII"
lol... evvai con schede grafiche nuove... e con software vecchio che non sfrutta niente delle nuove estensione ...ed in realtà appena marginalmente delle vecchie nel senso che di shader c'è ancora poco... il vecchio T&L con le sue fixed function regna ancora sovrano...
ma che bello... ci sono schede nuove con circuiti vari più circuiti mantenuti solo per compatibilità... facciamo tanti bei test sui circuiti vecchi per vedere il software vecchio dove gira meglio...
... a buon intenditor...
certo i 2 gioielli sono + o - allo stesso livello... Ati ha ottimizzato degnamente la parte vecchia... nVidia sta cercando di correre avanti... ma purtroppo il software è ben che vecchio... ad ogni modo sulle cose nuove i risultati nVidia sono leggermente migliori... delle cose vecchie personalmente non me ne frega niente... e non ho certo intenzione di comperare una scheda grafica nuova per 'non sfruttarla' facendovi girare software che è supportato per retrocompatibilità.
Sono d'accordo con te su tutto, ho verificato con mano che nei titoli piu' vecchi, scelti appositamente per vedere come il GFFX riesca ad affrontarli, ne esca piuttosto ridimensionato. Laddove non riesce ad esprimere il suo multitexturing ed i vantaggi della sua architettura, finisce per dare numeri non esaltanti.
sanitarium
05-04-2003, 00:19
Originally posted by "yossarian"
e anche più salutare :pig:
:D
Sicuramente! :o
:sofico:
sanitarium
05-04-2003, 00:29
Originally posted by "DoomIII"
[...] certo i 2 gioielli sono + o - allo stesso livello... Ati ha ottimizzato degnamente la parte vecchia... nVidia sta cercando di correre avanti... ma purtroppo il software è ben che vecchio... ad ogni modo sulle cose nuove i risultati nVidia sono leggermente migliori... delle cose vecchie personalmente non me ne frega niente... e non ho certo intenzione di comperare una scheda grafica nuova per 'non sfruttarla' facendovi girare software che è supportato per retrocompatibilità.
Io invece vedo la situazione in modo più globale: la scheda grafica nuova mi dovrebbe far girare alla grande anche il software vecchio, non soltanto quello prossimo a uscire perché secondo me, se così non fosse, sarebbe un prodotto incompleto. Per quanto riguarda il discorso che la GeforceFx rende meglio della 9700pro nei giochi futuri, penso che bisognerà aspettare ancora un po' per dirlo: l'unico gioco "futuristico" che conosciamo e che è in piena fase di sviluppo è Doom III, gioco che conta su una modalità standard che vede la 9700pro surclassare di quasi il doppio la GeforceFx ultra, la quale ha bisogno di una MODALITA' PROPRIETARIA per far girare il programma meglio della 9700pro... Con le modalità dedicate sono tutti buoni ad andare più veloci, no? Chissà se anche la 9700pro avesse una sua modalità esclusiva su Doom III, quale sarebbe il risultato: per ora su Doom III, a detta di Carmack stesso, IN MODALITA' STANDARD (quindi uguale per entrambe le schede), la GeforceFX esce sconfitta abbastanza pesantemente dallo scontro con la 9700pro.
yossarian
05-04-2003, 00:51
Se per multitexturing applicato a giochi di nuova generazione si intende quello del 3DMark2003 o di qualche demo pseudo-DX9, si è completamente fuori strada. In questi casi vengono applicate non più di 8 textures per simgle pass (si è ben lontani dal tetto massimo delle specifiche DX9). Per come sono strutturati l'NV30 e l'R300, è evidente che la prima soffre nel single texturing, viene fuori nel multitexturing e mantiene un vantaggio accettabile fino a 6 textures p.s.p. (DX8.1), grazie, soprattutto alla molto maggiore frequenza di clock. A partire da 8 textures in poi (fino alle 16 previste come massimo dalle DX9) il vantaggio della FX inizia a diminuire, soprattutto in virtù del maggior numero di accessi alla ram video a cui è costretta per il fatto di avere la metà delle pipelines, unite ad una bandwidth molto minore. Per valutare il comportamento reale dei due chip con applicazioni future bisognerà attendere i primi giochi DX9 veri, o forse Doom 3 (che, però, non dimentichiamo che è OpenGL 1.4 e in OGL, l'uso dei PS è stato inportato dalle DX).
Se ci si dovesse basare sui test PS 2 e VS 2 del 3DMark2003, la FX non ne uscirebbe bene, però si tratta di un bench sintetico che riproduce situazioni di funzionamento ottimali e, di conseguenza, spesso lontane dalla realtà (un conto è valutare la potenza teorica di un chip e un conto è testarne il comportamento sul campo).
Originally posted by "sanitarium"
I primi driver a riconoscere correttamente la 9800pro come tale sono i 3.2, e allora perché non usare quelli se si voleva fare un test davvero imparziale?
Semplice perche quando hanno scritto quell articolo (Fine Febbraio) i Catalyst 3.2 ancora non esistevano :D sono stati rilasciati il 15 Marzo
Originally posted by "Jaguar64bit"
Io Pc Professionale lo compro x il reparto tolette......., una lettura veloce ed e' meglio di una purga...... :D :sofico: :D
Anche io...
Comunque rimane fra le riviste che + approfondisce gli argomenti e che tratta l'informatica davvero a 360°.
L''editoria cartacea ha costi ben maggiori rispetto a quella web, meno publicità spesso vuol dire anche una rivista con meno risorse, non è matematico ma per quel che ho visto si traduce in un'approccio agli argomenti + superficiale.
Non ho l'ultimo numero e non ho letto l'articolo (da quando questo ed altri siti hanno raggiunto un livello davvero professionale ne compro una ogni 3 o 4 mesi di riviste informatiche, prima ci spendevo una fortuna), comunque quello che si legge su carta è sempre vecchio di 30gg, per chi poi è appassionato e documentato alcuni articoli risultano già datati, le valutazioni partigiane e la competenza di chi le formula influenzata da probabili o meno convenienze.
Magari l'esaltazione e le aspettattive che hanno prodotto su questa o quella scheda derivavano dal fatto che anche loro erano vittime inconsapevoli di hype che solo poi si è rivelato tale, magari no, chi lo sa...
Certo almeno i cata 3.1 li potevano usare...
Di sicuro è una rivista che influenza enormemente gli acquisti e quindi il mercato (vorrei che così non fosse ma sicuramente molto + di hwupgrade), in un passato non troppo recente ho speso svariati soldi in informatica basando le mie scelte sulle valutazioni di quella rivista, ore le mie valutazioni le ricavo da + fonti di documentazione, ma se un professionista o un persona qualunque decide di documentarsi prima di acquistare hardware state tranquilli che è + probabile che incappi nelle pagine di pc pro che non sulle pagine di questo o quel sito...
Altrimenti non mi spiego perchè Infom...barabba_ed_i_40_ladroni ancora non sia fallito con quel listino con i prezzi che sono quelli del mercato elevati al quadrato, però spenderà un'enormità per quelle pagine publicitarie che da almeno 3 anni sono sempre presenti su quella rivista.
sanitarium
05-04-2003, 10:58
Originally posted by "danige"
Semplice perche quando hanno scritto quell articolo (Fine Febbraio) i Catalyst 3.2 ancora non esistevano :D sono stati rilasciati il 15 Marzo
Bastava aspettare l'uscita dei catalyst 3.2 e mettere la rece nel numero di aprile, se si volevano fare le cose come si deve! :D
O avevano tanta fretta di recensire la fx da non poter aspettare 15 giorni? :rolleyes:
dipende comunque dal recensore. aspettavano nv30 da tempo e ne hanno sempre parlato con molto entusiasmo. Ho letto l'articolo più volte e l'impressione è che abbiano valutato più le novità dell'architettura del chip Nvidia che le ottimizzazioni e i "piccoli" cambiamenti del Radeon.
Fatto sta che comunque dicono che entrambe le schede sono lo stato dell'arte della grafica 3d.
Golden American
05-04-2003, 11:43
peccato che alla fine della review su pc prof dicano:
pro Nv30:
prestazioni eccellenti :eek:
contro
prezzo elevato e rumorosita'
pro r300:
buon rapporto qualita'/prezzo
contro
nulla
come mai se dicono che vanno uguale alla fine riassumono a favore di nvidia :muro: :pig:
sanitarium
05-04-2003, 11:48
Originally posted by "Golden American"
peccato che alla fine della review su pc prof dicano:
pro Nv30:
prestazioni eccellenti :eek:
contro
prezzo elevato e rumorosita'
pro r300:
buon rapporto qualita'/prezzo
contro
nulla
come mai se dicono che vanno uguale alla fine riassumono a favore di nvidia :muro: :pig:
Si infatti, come se r300 non avesse prestazioni eccellenti... Che pagliacciata... :rolleyes:
Hanamichi
05-04-2003, 11:59
PC professionale mi è calata tanto!
tgm dice questo:
PRO:più veloce di una ti4600
Contro:meno veloce di una 9700PRO :rolleyes:
sanitarium
05-04-2003, 12:04
Originally posted by "Hanamichi"
PC professionale mi è calata tanto!
tgm dice questo:
PRO:più veloce di una ti4600
Contro:meno veloce di una 9700PRO :rolleyes:
Si, l'ho letto anch'io!
Comunque, come diceva Pandyno, su TGM ci prendono quasi sempre nelle recensioni delle schede video... ;)
Hanamichi
05-04-2003, 12:07
Originally posted by "sanitarium"
Si, l'ho letto anch'io!
Comunque, come diceva Pandyno, su TGM ci prendono quasi sempre nelle recensioni delle schede video... ;)
su quello è sicuro! ha preso 7! :sofico:
sanitarium
05-04-2003, 12:14
Originally posted by "Hanamichi"
su quello è sicuro! ha preso 7! :sofico:
Che secondo me è il voto giusto per la GeforceFX ultra... Anche su GMC ha ricevuto lo stesso voto! :pig:
Hanamichi
05-04-2003, 12:16
Originally posted by "sanitarium"
Che secondo me è il voto giusto per la GeforceFX ultra... Anche su GMC ha ricevuto lo stesso voto! :pig:
ti giuro che se prendeva 10 prendevo TGM e lo bruciavo! :p
sanitarium
05-04-2003, 12:19
Originally posted by "Hanamichi"
ti giuro che se prendeva 10 prendevo TGM e lo bruciavo! :p
E io ti davo una mano!
:sofico:
Hanamichi
05-04-2003, 12:22
Originally posted by "sanitarium"
E io ti davo una mano!
:sofico:
LOL :sofico: .cmq secondo me 7 è un voto più che giusto!! la geppo nn si merita nemmeno 8 :rolleyes:
Speravo non fosse vero mentre leggevo quella comparativa...
:cry:
Hanamichi
05-04-2003, 12:27
Originally posted by "Shiny"
Speravo non fosse vero mentre leggevo quella comparativa...
:cry:
invece così! questa volta nvidia ha sbagliato sia il tempo che scheda! :rolleyes:
mah, secondo me non è che Nvidia ha sbagliato........forse stavolta Ati ha tirato fuori dal cappello un prodotto che nessuno si aspettava tanto competitivo (stessa cosa quando il Pentium III fu battuto dall'Athlon per la prima volta e quando Amd ha sfondato la barriera del Ghz. Su Pc Professionale nelle recensioni prevaleva lo sconcerto.........)
Originally posted by "sanitarium"
...
l'unico gioco "futuristico" che conosciamo e che è in piena fase di sviluppo è Doom III, gioco che conta su una modalità standard che vede la 9700pro surclassare di quasi il doppio la GeforceFx ultra, la quale ha bisogno di una MODALITA' PROPRIETARIA per far girare il programma meglio della 9700pro... Con le modalità dedicate sono tutti buoni ad andare più veloci, no? Chissà se anche la 9700pro avesse una sua modalità esclusiva su Doom III, quale sarebbe il risultato: per ora su Doom III, a detta di Carmack stesso, IN MODALITA' STANDARD (quindi uguale per entrambe le schede), la GeforceFX esce sconfitta abbastanza pesantemente dallo scontro con la 9700pro.
hmm... le cose non stanno proprio così... ed è semplicemente tendenzioso voler indicare come cerchi tu che per far girare DoomIII su scheda nVidia servano accrocchi e trucchi vari.
DoomIII è stato presentato per la prima volta alla presentazione della Gef3, quando nVidia rivoluziono il settore con gli shader... shader dati tramite licenza a Microsoft per le DX... alle OpenGL e per chiunque voglia appoggiarvisi come ha fatto Ati basandosi sullo standar le ricerche e gli investimenti nVidia.
Quindi DoomIII è stato concepito fin da subito per sfruttare gli shader introdotti da nVidia ed è perciò normale che in un certo senso questa sia favorita dal motore come sviluppo.
Inoltre i motivi di cui sopra, cioè il motivo per cui J.C. ha una GefFX sulla sua postazione principale ed il motivo per cui esiste una modalità standard è il seguente:
cioè è Ati ad aver bisogno di una modalità standard e del resto :
I have bumped into program limits on the R300 already.(J.Carmack)
poi di che vi preoccupate... quando uscirà DoomIII ci sarà NV35 fuori... e sarà finalmente il primo titolo concepito con gli shader.
P.S.
per il discorso che facevi sui titoli vecchi non sono d'accordo... è un po come chi aveva comperato la Gef3... niente sfruttava gli shader e solo qualche titolo appena marginalmente... e cioè il software girava nel NV15 incluso per compatibilità nel NV20... certo ottimizzazioni su antialiasing, più velocità ecc... ma non ha senso spendere soldi per una scheda nuova che offre possibilità nuove la quale solo per compatibilità presenta vecchi circuiti mantenuti e poi trovarsi sfruttata solo la parte vecchia...
OverClocK79®
05-04-2003, 13:11
PC PROT funziona così
se lasci giù il prodotto il punteggio sale se lo rivuoi indietro il punteggio scende :D
BYEZZZZZZZZZZZZZ
Originally posted by "OverClocK79®"
PC PROT funziona così
se lasci giù il prodotto il punteggio sale se lo rivuoi indietro il punteggio scende :D
BYEZZZZZZZZZZZZZ
? cosa vuoi dire?
Originally posted by "sanitarium"
Bastava aspettare l'uscita dei catalyst 3.2 e mettere la rece nel numero di aprile, se si volevano fare le cose come si deve! :D
O avevano tanta fretta di recensire la fx da non poter aspettare 15 giorni? :rolleyes:
Guarda che la prova E' sul numero di Aprile se avessero aspettato altri 20 giorni sarebbe finita su quello di Maggio
sanitarium
05-04-2003, 14:17
Originally posted by "danige"
Guarda che la prova E' sul numero di Aprile se avessero aspettato altri 20 giorni sarebbe finita su quello di Maggio
Vabbè, lo mettevano nel numero di maggio, e allora? Che cambiava? Che la 9800pro non avrebbe avuto gli stessi risultati, ecco cosa sarebbe cambiato...
Originally posted by "sanitarium"
Vabbè, lo mettevano nel numero di maggio, e allora? Che cambiava? Che la 9800pro non avrebbe avuto gli stessi risultati, ecco cosa sarebbe cambiato...
E chi ti dice che non faranno una nuova comparativa includendo anche la Radeon 9600 e le FX di categoria inferiore ? non sarebbe la prima volta
sanitarium
05-04-2003, 14:34
Originally posted by "DoomIII"
hmm... le cose non stanno proprio così... ed è semplicemente tendenzioso voler indicare come cerchi tu che per far girare DoomIII su scheda nVidia servano accrocchi e trucchi vari.
DoomIII è stato presentato per la prima volta alla presentazione della Gef3, quando nVidia rivoluziono il settore con gli shader... shader dati tramite licenza a Microsoft per le DX... alle OpenGL e per chiunque voglia appoggiarvisi come ha fatto Ati basandosi sullo standar le ricerche e gli investimenti nVidia.
Quindi DoomIII è stato concepito fin da subito per sfruttare gli shader introdotti da nVidia ed è perciò normale che in un certo senso questa sia favorita dal motore come sviluppo.
Inoltre i motivi di cui sopra, cioè il motivo per cui J.C. ha una GefFX sulla sua postazione principale ed il motivo per cui esiste una modalità standard è il seguente:
cioè è Ati ad aver bisogno di una modalità standard e del resto :
I have bumped into program limits on the R300 already.(J.Carmack)
poi di che vi preoccupate... quando uscirà DoomIII ci sarà NV35 fuori... e sarà finalmente il primo titolo concepito con gli shader.
P.S.
per il discorso che facevi sui titoli vecchi non sono d'accordo... è un po come chi aveva comperato la Gef3... niente sfruttava gli shader e solo qualche titolo appena marginalmente... e cioè il software girava nel NV15 incluso per compatibilità nel NV20... certo ottimizzazioni su antialiasing, più velocità ecc... ma non ha senso spendere soldi per una scheda nuova che offre possibilità nuove la quale solo per compatibilità presenta vecchi circuiti mantenuti e poi trovarsi sfruttata solo la parte vecchia...
Per favore, non cominciamo a dire termini come "tendenzioso" ecc., perché io non volevo assolutamente esserlo.
Da: http://news.hwupgrade.it/9185.html
Citazione:
The R200 path has a slight speed advantage over the ARB2 path on the R300, but only by a small margin, so it defaults to using the ARB2 path for the quality improvements. The NV30 runs the ARB2 path MUCH slower than the NV30 path. Half the speed at the moment. This is unfortunate, because when you do an exact, apples-to-apples comparison using exactly the same API, the R300 looks twice as fast, but when you use the vendor-specific paths, the NV30 wins.
Traduzione:
La modalità R200 ha un leggero vantaggio velocistico rispetto alla modalità ARB2 su schede R300, ma soltanto di un leggero margine, quindi sarà usata di default la modalità ARB2 a causa dei miglioramenti qualitativi. NV30 fa girare la modalità ARB2 MOLTO più lentamente rispetto alla modalità NV30. Alla metà della velocità al momento. Questo è spiacevole, perché quando fai una comprarazione esatta, pari pari, usando le stesse API, R300 appare il doppio più veloce, ma quando usi una modalità specifica del produttore, NV30 vince.
Il che è esattamente quello che ho detto io. Qui non si tratta di insinuare che "per far girare DoomIII su scheda nVidia servano accrocchi e trucchi vari", ma si tratta di ammettere semplicemente che NV30, per esprimersi, ha bisogno di una modalità proprietaria, con la quale rende il doppio circa di quanto non faccia in modalità standard. Non è R300 ad aver bisogno di una modalità standard, ma NV30 ad avere bisogno di una modalità proprietaria. Se NV30 fosse tanto potente (ed efficiente), distruggerebbe R300 in qualsiasi situazione, sia in modalità standard, sia in modalità proprietaria. Ma ciò non succede affatto.
sanitarium
05-04-2003, 14:37
Originally posted by "danige"
E chi ti dice che non faranno una nuova comparativa includendo anche la Radeon 9600 e le FX di categoria inferiore ? non sarebbe la prima volta
Va bene, ma permettimi di dire che almeno i Catalyst 3.1 li potevano usare, invece hanno preferito, chissà poi per quale motivo, usare i 3.0... Io una recensione del genere non la guardo neanche.
Originally posted by "sanitarium"
Se NV30 fosse tanto potente (ed efficiente), distruggerebbe R300 in qualsiasi situazione, sia in modalità standard, sia in modalità proprietaria. Ma ciò non succede affatto.
nv30 è potente questo è indubbio
certo ha frequenze elevate, ma ha anche metà bus verso la mem e 4 pipeline.
che sia efficente è un illusione, è un po come il p4, lo ribadisco, con software ottimizzato( in questo caso per gli shader) tira fuori la sua potenza, con il software normale non ci fa un figurone
halduemilauno
05-04-2003, 15:33
Originally posted by "checo"
nv30 è potente questo è indubbio
certo ha frequenze elevate, ma ha anche metà bus verso la mem e 4 pipeline.
che sia efficente è un illusione, è un po come il p4, lo ribadisco, con software ottimizzato( in questo caso per gli shader) tira fuori la sua potenza, con il software normale non ci fa un figurone
ciao.
il primo test con i nuovi driver 43.45.notare il test in OC.
http://www.vr-zone.com/reviews/NVIDIA/FX5800U/page3.htm
a presto.
:) :)
secondo pc professionale di Gennaio (la famosa comparativa di chip 3d) NV30 "dispone del maggior parallelismo, con otto pipelines di rendering ognuna delle quali capace di otto texture per pixel per ciclo di clock".
Originally posted by "halduemilauno"
ciao.
il primo test con i nuovi driver 43.45.notare il test in OC.
http://www.vr-zone.com/reviews/NVIDIA/FX5800U/page3.htm
a presto.
:) :)
si si, ma la geforce fx doveva essere cloccata a 400/400 questo mi pare assodato ormai
certo scala bene ;)
Originally posted by "rera"
secondo pc professionale di Gennaio (la famosa comparativa di chip 3d) NV30 "dispone del maggior parallelismo, con otto pipelines di rendering ognuna delle quali capace di otto texture per pixel per ciclo di clock". :sofico:
halduemilauno
05-04-2003, 15:52
Originally posted by "checo"
si si, ma la geforce fx doveva essere cloccata a 400/400 questo mi pare assodato ormai
certo scala bene ;)
ciao.
scusa credo di non aver capito perchè a 400/400(800) e non a 500/1000?aldila dell'ipotesi che la "vera"geffex era la liscia.ora c'è anche la ultra si testa anch'essa o no?
a presto.
:) :)
Originally posted by "halduemilauno"
ciao.
scusa credo di non aver capito perchè a 400/400(800) e non a 500/1000?aldila dell'ipotesi che la "vera"geffex era la liscia.ora c'è anche la ultra si testa anch'essa o no?
a presto.
:) :)
certo si testa ma non venirmi a dire che è na scheda video buona, certo come prestazioni si, ma come rumore/calore non è così.
Quello che mi da fastidio è che si testa SOLO la Ultra. Così come solo le versioni Pro di Ati. Cacchio esistono due schede che sono tra le più interessanti secondo me e cioè la 9700 (o 9800) e la 5800 nelle versioni lisce. E nessuno le testa per vedere il divario di prestazioni e i test in overclock? Quando uscirono le 4200 tutti a dire che la differenza tra la 4200 e le altre erano non giustificabili con l'aumento di prezzo (vero). E ora? E' una curiosità che le tante prove ancora non mi hanno tolto, voi?
io vorrei vedere recensita la versione liscia della 5800 contro quella della 9800, ma penso che Nvidia e Ati non mandino le versioni meno performanti dei loro prodotti di punta alle riviste e/o ai siti (così come le case automobilistiche non mandano vetture con dotazione scarna per i test, o sbaglio?)
halduemilauno
05-04-2003, 16:02
Originally posted by "checo"
certo si testa ma non venirmi a dire che è na scheda video buona, certo come prestazioni si, ma come rumore/calore non è così.
certo ha creato il problema calore e per risolverlo ha creato il problema rumore.fuor di dubbio.anche se per il rumore qualcosa si è fatto e altro si deve fare.
ma io appunto mi riferivo alle prestazioni e all'OC che molti dicevano praticamente inesistente.
a presto.
:) :)
sanitarium
05-04-2003, 16:08
Originally posted by "checo"
nv30 è potente questo è indubbio
certo ha frequenze elevate, ma ha anche metà bus verso la mem e 4 pipeline.
che sia efficente è un illusione, è un po come il p4, lo ribadisco, con software ottimizzato( in questo caso per gli shader) tira fuori la sua potenza, con il software normale non ci fa un figurone
E' esattamente come la penso io: con la frase "Se NV30 fosse tanto potente" non volevo dire che non lo è, ci mancherebbe, ma che non è tanto potente quanto qualcuno (nessuno si senta chiamato in causa direttamente) vuole credere o far credere.
E la sua efficienza non è certo all'altezza di quella di R300/350, che con un'architettura ben meno rivoluzionaria fa le stesse cose della FX (ormai anche le specifiche al di fuori delle dx9 non sono più un'esclusiva di NV30, visto che la 9800pro è andata anche oltre le specifiche degli shader della FX), senza modalità dedicate, con un clock decisamente minore, e ha iniziato a fare queste cose ben 7 mesi fa ormai (escludendo ovviamente le caratteristiche addizionali di R350).
Originally posted by "halduemilauno"
certo ha creato il problema calore e per risolverlo ha creato il problema rumore.fuor di dubbio.anche se per il rumore qualcosa si è fatto e altro si deve fare.
ma io appunto mi riferivo alle prestazioni e all'OC che molti dicevano praticamente inesistente.
a presto.
:) :)
beh l'oc c'è , considerando che anche i primi nv25 non si cloccavano molto bene.
i
Golden American
05-04-2003, 19:18
se i big...macci holico oppainter carnaby e company usano le Ati x OC e ottenere big results un motivo ci sara'....doveva sfondare i 20000 punti default e manco su sitemi strapompati ci riesce bene! :cry:
Golden American
05-04-2003, 19:24
Originally posted by "halduemilauno"
ciao.
il primo test con i nuovi driver 43.45.notare il test in OC.
http://www.vr-zone.com/reviews/NVIDIA/FX5800U/page3.htm
a presto.
:) :)
si ma non c'e' un solo test con AA e Af attivo, come mai??? :sofico:
e comunque mi sembrano un po' troppo favorevoli...come dire :pig:
halduemilauno
05-04-2003, 19:31
Originally posted by "Golden American"
se i big...macci holico oppainter carnaby e company usano le Ati x OC e ottenere big results un motivo ci sara'....doveva sfondare i 20000 punti default e manco su sitemi strapompati ci riesce bene! :cry:
i sistemi strapompati andavano o vanno bene per il 3d mark 2001.ora con il 2003 si misura solo le potenzialità della scheda.certo(per fare un confronto)si potrebbe vedere su sistemi simili la geffex 5800 ultra.ma ormai credo che faccia testo solo il 2003.e quindi per confronto bisogna vedere quanto fanno la 9800 pro di default e in OC nel 3d mark2003.
un saluto.
:) :)
halduemilauno
05-04-2003, 19:33
Originally posted by "Golden American"
si ma non c'e' un solo test con AA e Af attivo, come mai??? :sofico:
e comunque mi sembrano un po' troppo favorevoli...come dire :pig:
quello ho trovato.aspettiamo la rece completa di CS25.
ciao.
:) :)
Golden American
05-04-2003, 19:33
;)
Golden American
05-04-2003, 19:36
la 9700pro di macci sta a 510mhz di gpu(dry ice)....e fa 8000 se non sbaglio al 3dmark2003... :eek:
ma sta gente vive x quello? :sofico:
Originally posted by "Golden American"
la 9700pro di macci sta a 510mhz di gpu(dry ice)....e fa 8000 se non sbaglio al 3dmark2003... :eek:
ma sta gente vive x quello? :sofico:
:confused: dove l' hai letto? sull' ORB al max hanno fatto sui 7100 mi pare oppainter
Golden American
05-04-2003, 20:12
non ne sono sicuro degli 8000 ma macci ha aggiornato il record :eek:
Originally posted by "sanitarium"
...
...
Citazione:
The R200 path has a slight speed advantage over the ARB2 path on the R300, but only by a small margin, so it defaults to using the ARB2 path for the quality improvements. The NV30 runs the ARB2 path MUCH slower than the NV30 path. Half the speed at the moment. This is unfortunate, because when you do an exact, apples-to-apples comparison using exactly the same API, the R300 looks twice as fast, but when you use the vendor-specific paths, the NV30 wins.
Traduzione:
La modalità R200 ha un leggero vantaggio velocistico rispetto alla modalità ARB2 su schede R300, ma soltanto di un leggero margine, quindi sarà usata di default la modalità ARB2 a causa dei miglioramenti qualitativi. NV30 fa girare la modalità ARB2 MOLTO più lentamente rispetto alla modalità NV30. Alla metà della velocità al momento. Questo è spiacevole, perché quando fai una comprarazione esatta, pari pari, usando le stesse API, R300 appare il doppio più veloce, ma quando usi una modalità specifica del produttore, NV30 vince.
Il che è esattamente quello che ho detto io. Qui non si tratta di insinuare che "per far girare DoomIII su scheda nVidia servano accrocchi e trucchi vari", ma si tratta di ammettere semplicemente che NV30, per esprimersi, ha bisogno di una modalità proprietaria, con la quale rende il doppio circa di quanto non faccia in modalità standard. Non è R300 ad aver bisogno di una modalità standard, ma NV30 ad avere bisogno di una modalità proprietaria. Se NV30 fosse tanto potente (ed efficiente), distruggerebbe R300 in qualsiasi situazione, sia in modalità standard, sia in modalità proprietaria. Ma ciò non succede affatto.
allora, intanto diciamo perchè per adesso la modalità ARB2 è più lenta su nVidia:
so when Nvidia runs fragment programs, they are at a higher precision than ATI's, which is some justification for the slower speed. Nvidia assures me that there is a lot of room for improving the fragment program performance with improved driver compiler technology.(J.Carmack)
ARB2 su nVidia da risultati qualitativi migliori a scapito delle prestazioni.
the R300 architecture is a better target for a straightforward assembler / compiler, while the NV30 is twitchy enough to require more serious analysis and scheduling, which is why they expect significant improvements with later drivers.
poi...
The R300 can run Doom in three different modes: ARB (minimum extensions, no specular highlights, no vertex programs), R200 (full featured, almost always single pass interaction rendering), ARB2 (floating point fragment shaders, minor quality improvements, always single pass).
The NV30 can run DOOM in five different modes: ARB, NV10 (full featured, five rendering passes, no vertex programs), NV20 (full featured, two or three rendering passes), NV30 ( full featured, single pass), and ARB2.
confronto tra le modalità
In terms of Performance :
NV30+NV30-path is faster than NV30+ARB2
NV30+NV30-path is faster than R300+ARB2
R300+ARB2 is faster than NV30+ARB2
R300+R200-path is faster than R300+ARB2
In terms of Quality :
NV30+ARB2 is better than NV30+NV30-path
NV30+ARB2 is better than R300+ARB2
R300+ARB2 is better than NV30+NV30-path
R300+ARB2 is better than R300+R200-path
questa risposta di J.Carmack è molto interessante:
Why do you have NV30-specific code paths and none for the R300?
There aren't any R300-specific fragment extensions, so I really can't make an R300-specific back end. I do support their two sided stencil extension (unfortunately, slightly different than NVIDIA's...), which is orthogonal to the back end selection.
poi vediamo perchè J.Carmack ha una GefFX nella sua postazione principale e perchè ha detto:
the NV30 runs fragment programs much slower, but it has a huge maximum instruction count. I have bumped into program limits on the R300 already.
Because of supporting nested subroutines, dynamic flow control, and per channel masking, NV30 shows its muscle here. In theory, NV30 can carry more powerful vertex shading programs which can show complex visual effects running faster.
comparazione tra R300 e NV30
Vertex Shader Unit R300 VS NV30
Version
R300 2.0
NV30 2.0+
Max Runtime Instruction Number
R300 64k
NV30 64k
Instruction Slots
R300 256
NV30 256
Call and Return
R300 SI
NV30 SI
Nested Subroutine
R300 0
NV30 4
Nested Loop
R300 0
NV30 4*
Static Flow Control
R300 SI
NV30 SI
Dynamic Flow Control
R300 NO
NV30 SI
Per Channel Masking
R300 NO
NV30 SI
* It seems there are no nested loop limitations in NV30 because any float constant component can be used as loop counter.
non lo metto in dubbio... il sofware non c'è... ma si fosse su R300 non girebbe viste le mancanze... ad ogni modo questi supporti nVidia sono molto importanti come sviluppo... poi logico quando nVidia avrà fatto lo standard e migliorato l'architettura Ati gli paghera i diritti e scopiazzerà il lavoro... :D
mi ripeto... buona mossa commerciale di Ati (però a totale danno degli utenti cioè di noi perchè rallenta l'evoluzione software e quindi la qualità dei titoli) nel ottimizzare cose vecchie per ottenere subito un marcato effetto pubblicitario di prestazioni... ma onore ad nVidia per continuare ad andare avanti e proporre nuove soluzioni&evoluzioni... spero solo che prima o poi tanta meraviglia tecnologica sia sfruttata degnamente...
[edit]
ho sistemato un po la formattazione della comparazione :D
In terms of Performance :
NV30+NV30-path is faster than NV30+ARB2
NV30+NV30-path is faster than R300+ARB2
R300+ARB2 is faster than NV30+ARB2
R300+R200-path is faster than R300+ARB2
In terms of Quality :
NV30+ARB2 is better than NV30+NV30-path
NV30+ARB2 is better than R300+ARB2
R300+ARB2 is better than NV30+NV30-path
R300+ARB2 is better than R300+R200-path
La deduzione è logica, un'interpretazione l'hanno data parecchi siti, futurmark anche ha messo un alto là, i driver non sono WHQL almeno per ora quelli che raddoppiano le prestazioni con applicazioni che dovrebbero sfruttare la FP precision come da specifica DX9, anche se lo dovessero diventare futurmak ha detto che si riserva di verificare che le specifiche siano davvero rispettate nell'esecuzione del 3dmark2003...
Non è un fatto di estensioni proprietarie, nè di applicazioni future...è un limite di progettazzione, dare 128bit come attributo alla definizione di colore ad ogni pixel generato dagli shaders implica proprio potenza bruta e banda a iosa (hai proprio fisicamente un numero molto maggiore di dati, logico è che se li comprimi risparmi i dati e quindi parte del loro flusso, ma perdi comunque precisione in favore dell'approssimazione che porta al risparmio).
Fosse mai che la path NV30 ha la FP precision a 16(64)bit...e le applicazioni future per quanto innovative, se scritte per non sfruttare la precisione di colore(profondità) definita dalle DX9 dubito che possano rispecchiare un concetto di "cineFX".
PS: Il discorso di Carmak sul limite di istruzioni e l'R300 è riferito al numero massimo di istruzioni avviabili per passata (in numero di molto inferiore a quelle teoricamente fruibili su NV30) senza dover riscrivere il frame buffer onde evitare una trasposizione che si rifletterebbe in difetti d'immagine.
Con l'R350 e il Fifo frame buffer ottieni che i dati(in questo caso pixels) risultanti dall'esecuzione di shaders che eccedono il limite in singlepass non si sovrascrivono sul frame buffer, vanno invece in quest'altro buffer e finiscono insieme agli altri pixel sul frame buffer solo quando le loro istruzioni sono totalmente eseguite(è un multipass in teoria enormemente + flessibile di quello NV30).
si ma perdonate una domanda........le ottimizzazioni di r350 non servono a eliminare anche i limiti di cui parlava Carmack? Poi si finisce sempre a parlare di Doom III........
sanitarium
05-04-2003, 23:15
Io non bado ai giochi che non ci sono, o che forse ci saranno, poiché a me interessa godermi quelli che ho già tra le mani, non quelli che ancora non esistono. Domani ci saranno altri giochi? Bene, ma ci saranno anche altre schede, non c'è dubbio che l'evoluzione non si fermerà certo a R300 - NV30... NVidia contribuisce all'evoluzione del software, mentre ATi fa si che esso stagni nella condizione in cui lo conosciamo oggi? Bene, lascia che ti dica che a far si che gli sviluppatori di software non andassero di pari passo con le varie generazioni di schede video, ha contribuito particolarmente NVidia per prima, grazie alla sua "invenzione" del ricambio generazionale delle schede video ogni 6 mesi. Quindi non mi pare che fino ad oggi NVidia abbia badato solamente all'evoluzione dei videgiochi, quasi in un moto di filantropia, quanto più ad assicurarsi di avere la scheda più veloce del momento. Adesso che si è trovata alle strette (leggasi: R300), ha giocato la carta dell'innovazione tecnologica a favore della qualità. Ma a me interessa che i giochi siano ottimizzati, non rivoluzionari, perché se già si sfruttassero pienamente le tecnologie a nostra disposizione, a quest'ora avremmo giochi ben più spettacolari (e ottimizzati) di quelli che invece conosciamo. Non mi interessa affatto spendere 600€ per una scheda che mi DOVREBBE far girare bene i giochi di domani, visto che a me interessa, come ho già detto, godermi i giochi odierni e quelli passati, e tutt'al più butto un occhio ai giochi del PROSSIMO futuro. Per i giochi di domani (E SFIDO QUALCUNO A TROVARMI UN GIOCO CHE USCIRA' NEI PROSSIMI 2-3 ANNI CHE NON GIRERA' ALLA PERFEZIONE SU UNA SCHEDA COME LA 9700PRO) ci saranno altre schede, e allora penserò a cambiare quella che ho oggi (se ce ne sarà bisogno, ovviamente). Le innovazioni di NV30, finché si baseranno su tecnologie proprietarie (estensioni esclusive che vanno oltre le dx9) non credo avranno molto successo, perché non tutte le software house possono permettersi di creare una modalità apposita per NV30 nei loro giochi. Le regole vengono dettate dagli standard, non dalle esclusive.
P.S.: E comunque mi fa piacere che alla fine la qualità migliore si avrà facendo girare Doom III in modalità ARB2 con R300, piuttosto che in modalità NV30 con GeforceFX (R300+ARB2 is better than NV30+NV30-path)! :D
Originally posted by "sanitarium"
....
....
....
Quindi non mi pare che fino ad oggi NVidia abbia badato solamente all'evoluzione dei videgiochi, quasi in un moto di filantropia, quanto più ad assicurarsi di avere la scheda più veloce del momento. Adesso che si è trovata alle strette (leggasi: R300), ha giocato la carta dell'innovazione tecnologica a favore della qualità.
Qui proprio non siamo d'accordo... gli shader ti dicono niente? NV20 i vertex/pixel shader sono state una grande evoluzione portata da nVidia.
Per qualche mese in cui Ati dimostra in alcuni test (IMHO stupidi ed inutili) un leggero vantaggio non mi sembra proprio nVidia sia alle strette... voi tifosi della Ati fareste meglio a non cantare vittoria troppo presto... perchè sinceramente tutto questo proclamare forzatamente vittoria in un periodo come questo lascia solo intravedere la frustazione da utenti Ati. Lo dico senza polemica o senza voler offendere nessuno... e non chiamo nessuno in causa nemmeno te... è un discorso generale riferito a tanti post e commenti in forum vari.
Senz'altro do onore ad Ati per un prodotto commercialmente valido e per i progressi che fa come stabilità, supporto ecc... e confido sempre che ci possa essere concorrenza a vantaggio degli utenti... dal profilo tecnologico però sono entusiasta delle innovazioni che nVidia ha portato (gli shader) e di come li stia evolvendo...
P.S.
pensandoci però in un certo senso hai ragione... la fascia bassa (serie MX ma idem per le Ati) ha riscosso molto successo e di conseguenza gli sviluppatori ne tengono molto conto negli sviluppi... ma tali schede sono prive della vera GPU cioè degli shader in quanto presentano unicamente le vecchie fixed function... questo sicuramente sfavorissce giochi shader-oriented poichè difatto non sarebbero godibili su schede senza shader.
Originally posted by "sanitarium"
....
Non mi interessa affatto spendere 600€ per una scheda che mi DOVREBBE far girare bene i giochi di domani, visto che a me interessa, come ho già detto, godermi i giochi odierni e quelli passati, e tutt'al più butto un occhio ai giochi del PROSSIMO futuro.
per il tuo stesso motivo invece non interessa a me spendere 600€...
dovrei spendere 600€ per giocare con software vecchio ed avere al posto di miseri 200fps la bellezza di 500??? ma che me ne frega... ;)
spendo molto meno e gioco alla grande lo stesso... perchè spendere 600€ per circuiti e tecnologia non utilizzata?
Originally posted by "sanitarium"
....
Le innovazioni di NV30, finché si baseranno su tecnologie proprietarie (estensioni esclusive che vanno oltre le dx9) non credo avranno molto successo, perché non tutte le software house possono permettersi di creare una modalità apposita per NV30 nei loro giochi. Le regole vengono dettate dagli standard, non dalle esclusive.
nelle DX8 sono stati messi gli shader su licenza nVidia... nVidia è lo standard ecc... ecc...
Originally posted by "sanitarium"
....
P.S.: E comunque mi fa piacere che alla fine la qualità migliore si avrà facendo girare Doom III in modalità ARB2 con R300, piuttosto che in modalità NV30 con GeforceFX (R300+ARB2 is better than NV30+NV30-path)! :D
bè, sei libero di accontentarti...
NV30+ARB2 is better than R300+ARB2 :D (sto commento e solo per scherzare tanto quando uscirà DoomIII ci saranno driver migliori e NV35 :p )
yossarian
06-04-2003, 00:04
Originally posted by "rera"
si ma perdonate una domanda........le ottimizzazioni di r350 non servono a eliminare anche i limiti di cui parlava Carmack? Poi si finisce sempre a parlare di Doom III........
Esatto e vanno anche ben oltre le specifiche teoriche DX9+. Inoltre si continua a parlare di Doom 3 come del gioco che introdurrà le specifiche PS2.0+ e VS2.0+; ammesso che abbia senso parlare in questi temini e il tutto non sia solo una trovata pubblicitaria (ricordo che il Radeon 256 era oltre le DX7 ben di più di quanto l'NV30 superi le DX9, eppure non è mai stato sfruttato a dovere, e faccio anche presente che anche l'R300 va oltre le specifiche DX9, anche se non quanto l'NV30 (salvo la patch 9700->9800)), faccio natare che Doom 3 è OpenGL 1.4 (non 2.0 come ho letto da qualche parte, visto che delle 2.0 solo poco tempo fa sono state definite con esattezza le specifiche e ancora non c'è nulla di concreto); quindi non mi sembra il caso di continuare a considerarlo come il gioco che rivoluzionerà il mercato SW e HW e costringerà la maggior oarte degli utenti a cambiare le vecchie e obsolete schede video. A qualche mese dalla sua uscita, Doom3 sarà superato da altri titoli, così come accade sempre nel mondo dei videogames.
Infine non mi pare proprio che l'R300 sia colpevole del fatto che lo sviluppo del SW vada a rallentatore, visto che di R300 ce ne sono ancora molto pochi in giro e che comunque è anni luce avanti alla stragrande maggioranza dell'HW in circolazione.
Su questo thread ho letto l'intervento di qualcuno che diceva che Doom 3 era stato scritto in modalità standard ARB2 per venire incontro all'esigenza dell'R300. Perchè altrimenti sarebbe stato scritto in modalità NV30? (faccio presente che la modalità che garantirebbe la miglior qualità, NV30+ARB2, è anche quella in cui, a detta di Carmack, l'NV30 va circa alla metà della velocità dell'R300 in modalità standard ARB2, mentre la modalità NV30+NV30-path è qualitativamente inferiore, anche se un po' più veloce di quella R300+ARB2, per i motivi illustrati da sanitarium) :mc: Non so se l'autore dell'intervento si rende conto di ciò che sostiene: è la prima volta che si sente che una modalità standard viene adottata per andare incontro alle esigenze di qualcuno :rolleyes:
sanitarium
06-04-2003, 00:18
Ascolta, evitiamo di parlare di tifoserie e ca@@ate simili, perché sennò la nostra discussione può anche interrompersi qui. Te lo dico perché non mi piace applicare le parole "fede", "tifoseria" ecc... al mondo delle schede video.
Parli di frustrazione e di tifoseria a me, che ho comprato per la prima volta una scheda ATi con la 9700pro? Sei completamente fuori strada...
E comunque, come ultima cosa, avrei voluto tanto vedere voi sostenitori di NVidia (dico voi perché tu tutto mi sembri tranne che un utente imparziale, visto che arrivi a credere che io possa essere frustrato per una marca di schede video...) se questa avesse tirato fuori una scheda che distruggeva R300 in termini di prestazioni pure, senza però portare nessuna innovazione particolare... Chissà se avreste detto: "ma tanto questa velocità non serve a niente, questi sono soltanto dei test stupidi e inutili"... :rolleyes:
per il tuo stesso motivo invece non interessa a me spendere 600€...
dovrei spendere 600€ per giocare con software vecchio ed avere al posto di miseri 200fps la bellezza di 500??? ma che me ne frega... ;)
spendo molto meno e gioco alla grande lo stesso... perchè spendere 600€ per circuiti e tecnologia non utilizzata?
Tu Unreal 2 a quanti fps lo fai girare?
nelle DX8 sono stati messi gli shader su licenza nVidia... nVidia è lo standard ecc... ecc...
Qui stiamo parlando di ciò che va al di fuori delle specifiche standard, e cioè di caratteristiche che possiede NV30 al di fuori delle dx9.
bè, sei libero di accontentarti...
NV30+ARB2 is better than R300+ARB2 :D (sto commento e solo per scherzare tanto quando uscirà DoomIII ci saranno driver migliori e NV35 :p )
Io che mi accontento? Naaaah, non direi proprio... R300+ARB2 gira molto più velocemente di NV30+ARB2! Bisogna avere sempre un buon compromesso tra velocità e qualità, che me ne faccio di una grafica eccelsa se poi non me la posso godere fino in fondo a causa del framerate?? :D
yossarian
06-04-2003, 00:23
Originally posted by "sanitarium"
Qui stiamo parlando di ciò che va al di fuori delle specifiche standard, e cioè di caratteristiche che possiede NV30 al di fuori delle dx9.
:D
Che potrebbero anche non essere mai utilizzate in futuro, poichè non è detto che l'evoluzione delle API seguirà la strada intrapresa da nVIDIA. Inoltre l'utilizzo di buffer interni per le istruzioni VS e PS, come quello visto nell'R350, è una soluzione decisamente più avanzata rispetto a quella proposta sull'NV30, poichè non pone limiti alla lunghezza delle istruzioni in questione (limite che nell'FX esiste)
sanitarium
06-04-2003, 00:26
Originally posted by "yossarian"
Che potrebbero anche non essere mai utilizzate in futuro, poichè non è detto che l'evoluzione delle API seguirà la strada intrapresa da nVIDIA. Inoltre l'utilizzo di buffer interni per le istruzioni VS e PS, come quello visto nell'R350, è una soluzione decisamente più avanzata rispetto a quella proposta sull'NV30, poichè non pone limiti alla lunghezza delle istruzioni in questione (limite che nell'FX esiste)
Esattamente, quindi anche ATi, in R350, è uscita fuori dalle specifiche standard ed ha inserito delle features in più, addirittura superiori a quelle tanto osannate di NV30. Che tra l'altro, come dici tu, probabilmente non verranno mai sfruttate...
yossarian
06-04-2003, 00:38
Originally posted by "DoomIII"
nelle DX8 sono stati messi gli shader su licenza nVidia... nVidia è lo standard ecc... ecc...
Sbagliato :D nVIDIA propone uno standard che può essere o meno accettato. DX sono Microsoft, OpenGL non sono API proprietarie, Glide non sono più utilizzate. Fino a prova contraria gli standard sono questi. Se il tuo discorso fosse accettabile, allora ATI fissa gli standard per la decodifica DVD, Matrox ha "fissato" standard come l'EMBM, i 32 bit per pixel, lo Z-Buffer a 24 bit, i drivers unificati (e già, non è un'invenzione nVIDIA). Il motore VS era già presente su schede grafiche professionali molto prima che fosse introdotto nei pc domestici e funzioni di VS avanzate, quali morphing e keyframe interpolation erano già implementate nel Radeon che pure non aveva una vera unità VS programmabile, le textures compresse sono state introdotte per prime da S3 con il Savage3D, l'utilizzo di buffer interni per eseguire il multitexturing da ATI con il Rage 128, metodi per il calcolo dei poligono nascosti e la loro rimozione da 3dfx con la VooDoo5 e perfezionata da ATI con il Radeon. Vogliamo poi parlare della più grande rivoluzione della storia informatica: l'invenzione del 3D nei videogiochi?
Diciamo che nVIDIA ha contribuito allo sviluppo e all'evoluzione tecnologica insieme a tanti altri, a volte in misura maggiore (ad esempio con l'NV20 che è stato un grande chip) a volte minore. Ma da qui a dire che nVIDIA è lo standard e gli altri non fanno che copiare ce ne corre
:D
yossarian
06-04-2003, 01:23
Originally posted by "sanitarium"
Esattamente, quindi anche ATi, in R350, è uscita fuori dalle specifiche standard ed ha inserito delle features in più, addirittura superiori a quelle tanto osannate di NV30. Che tra l'altro, come dici tu, probabilmente non verranno mai sfruttate...
Inoltre, la tecnica dell'F-Buffer che, ripeto, per come è strutturato il chip, è replicabile anche sull'R300 o su qualunque chip disponga di un sufficiente spazio nel texture buffer, da poterne dedicare una parte all'immagazzinamento dei PS con istruzioni particolarmente lunghe da richiedere più passate di rendering (in questo caso si sta parlando, come minimo, di chip DX9, poichè il texture buffer di quelli DX8 e DX8.1 è molto limitato), non richiede la progettazione di un'architettura dedicata, ma può essere implementata anche su chip con impostazione più tradizionale e più efficiente. Il dazio che l'NV30 deve pagare, per avere una struttura particolare che gli garantisce un'elevata programmabilità, consiste in una minore efficienza del chip in molte situazioni tipiche d'impiego. Il vantaggio del metodo messo a punto alla Stanford risiede proprio nel fatto che, oltre a superare qualunque limite teorico sulla lunghezza delle istruzioni (quello pratico è imposto dalla velocità d'elaborazione del chip stesso) non richiede sacrifici imposti da una particolare architettura.
Inoltre, se vogliamo dirla tutta, altra scelta sbagliata è statto l'abbinamento delle ram DDR2 al bus a 128 bit. Le DDR2, a parità di data bus frequency ha una DRAM core frequency dimezzata rispetto alle DDR1.
In parole povere le DDR2 trasferiscono il doppio dei dati nel doppio del tempo, mantenendo inalterata la quantità di dati trasportata in un dato intervallo temporale, rispetto alle DDR1. Questo significa un minor numero di cicli della ram video (esattamente la metà), ma il doppio dei dati trasportati per ogni ciclo rispetto alle DDR1 (le ram della FX5800 Ultra viaggiano ad una frequenza effettiva di 200 Mhz ma equivalgono a DDR1 da 400 Mhz e a SDR da 800 Mhz). Un grande quantitativo di dati trasportati richiede anche un bus che sia il più ampio possibile (128 non era certo l'ideale). Inoltre le DDR2 hanno interfaccia a 64 bit, quindi l'ideale sarebbe stato utilizzare un bus a 256 bit, diviso in 4 canali da 64 bit (ognuno con il suo controller) esattamente come quello dell'R300.
Originally posted by "yossarian"
Sbagliato :D nVIDIA propone uno standard che può essere o meno accettato. DX sono Microsoft, OpenGL non sono API proprietarie, Glide non sono più utilizzate. Fino a prova contraria gli standard sono questi. Se il tuo discorso fosse accettabile, allora ATI fissa gli standard per la decodifica DVD, Matrox ha "fissato" standard come l'EMBM, i 32 bit per pixel, lo Z-Buffer a 24 bit, i drivers unificati (e già, non è un'invenzione nVIDIA). Il motore VS era già presente su schede grafiche professionali molto prima che fosse introdotto nei pc domestici e funzioni di VS avanzate, quali morphing e keyframe interpolation erano già implementate nel Radeon che pure non aveva una vera unità VS programmabile, le textures compresse sono state introdotte per prime da S3 con il Savage3D, l'utilizzo di buffer interni per eseguire il multitexturing da ATI con il Rage 128, metodi per il calcolo dei poligono nascosti e la loro rimozione da 3dfx con la VooDoo5 e perfezionata da ATI con il Radeon. Vogliamo poi parlare della più grande rivoluzione della storia informatica: l'invenzione del 3D nei videogiochi?
Diciamo che nVIDIA ha contribuito allo sviluppo e all'evoluzione tecnologica insieme a tanti altri, a volte in misura maggiore (ad esempio con l'NV20 che è stato un grande chip) a volte minore. Ma da qui a dire che nVIDIA è lo standard e gli altri non fanno che copiare ce ne corre
:D
ho già avuto una discussione simile con un'altro utente su questo forum... un utente intelligente che date a lui le informazioni ed i link si è ricreduto... quindi non mi ripeto... fate una ricerca.
gli shader sono stati dati da nVidia in licenza sia per per le DX che per le OpenGL.
Originally posted by "sanitarium"
I.
P.S.: E comunque mi fa piacere che alla fine la qualità migliore si avrà facendo girare Doom III in modalità ARB2 con R300, piuttosto che in modalità NV30 con GeforceFX (R300+ARB2 is better than NV30+NV30-path)! :DNV30+ARB2 is better than R300+ARB2 :rolleyes:
poi che vada la metà è un'altro discorso.
cmq io non ci vedo nulla di mase in un game fanno delle modalità dedicate
Originally posted by "sanitarium"
Ascolta, evitiamo di parlare di tifoserie e ca@@ate simili, perché sennò la nostra discussione può anche interrompersi qui. Te lo dico perché non mi piace applicare le parole "fede", "tifoseria" ecc... al mondo delle schede video.
Parli di frustrazione e di tifoseria a me, che ho comprato per la prima volta una scheda ATi con la 9700pro? Sei completamente fuori strada...
pensavo di essere stato chiaro e basta rileggere quello che ho scritto... ho detto che questa è l'impressione che mi fanno certi post e che era un discorso generale su molti di post di vari forum non rivolto particolarmente a te o a qualcuno in generale...
ad ogni modo visto che chiaro non lo sono stato... ripeto che non è mio intento offendere nessuno... e che si tratta di feeling feeback visto che tutti i pro-Ati o antinVidia sono di colpo insorti come se fosse accaduto un miracolo e nVidia fosse spacciata... per carità... nessuno nega i risultati Ati ma non mi sembra il caso di fare tanto chiasso per così poco... con il riscio appunto di fare un bel tonfo... perchè sinceramente se questa situazione attuale cambia (uso il condizionale ma io ne sono certo) nessuno poi ferma i pro nVidia a rompere con migliardi di post di esaltazione e di insulti a Ati.... cmq vabbè.. lasciamo stare sto argomento...
Originally posted by "sanitarium"
E comunque, come ultima cosa, avrei voluto tanto vedere voi sostenitori di NVidia (dico voi perché tu tutto mi sembri tranne che un utente imparziale, visto che arrivi a credere che io possa essere frustrato per una marca di schede video...) se questa avesse tirato fuori una scheda che distruggeva R300 in termini di prestazioni pure, senza però portare nessuna innovazione particolare... Chissà se avreste detto: "ma tanto questa velocità non serve a niente, questi sono soltanto dei test stupidi e inutili"... :rolleyes:
guarda che qui mi sembra, ma potrei sbagliare ;) , che parli proprio da tifoso... intanto R300 non distrugge in prestazioni NV30... cmq che mi stia 'simpatica' nVidia non lo nego... ma non è per il suo nome... è per quello che fa... se faceva una scheda senza innovazioni ecc... avrei detto quello che ho detto del R300... puoi dire quello che vuoi ma io so di essere obiettivo... e non sto dicendo comprate NV30 perchè è meglio... se qualcuno mi chiede un consiglio... se può farne a meno gli direi di non comprare nulla ed aspettare perchè adesso sarebbe insulso fare acquisti inutili ( poi se uno ha soldi è un'altro discorso ;) ).
cmq forse abbiamo anche un target diverso poichè io sono molto appassionato dell'argomento e quindi mi interessano le innovazioni per cui è normale che favorisca tale scheda.
Originally posted by "sanitarium"
Tu Unreal 2 a quanti fps lo fai girare?
non lo so, Unreal2 l'ho visto/provato (non sui miei PC) ma non mi interessa... è come motore è fixed-function oriented con qualche minimale sfruttamento di shader(sopratutto pixel).... assolutamente INUTILE per valutare le performance di una GPU programmabile.
Originally posted by "sanitarium"
Qui stiamo parlando di ciò che va al di fuori delle specifiche standard, e cioè di caratteristiche che possiede NV30 al di fuori delle dx9.
hmmm... si ma non solo... l'argomento è complesso... ma evitate di farmi fare un posto comparativo di confronto delle specifiche DX9 tra R300 e NV30 (registri , istruzioni, pixel shader, vertex shader che in parte ho già indicato ecc...) perchè l'R300 ne uscirebbe d'avvero male...
Originally posted by "sanitarium"
Io che mi accontento? Naaaah, non direi proprio... R300+ARB2 gira molto più velocemente di NV30+ARB2! Bisogna avere sempre un buon compromesso tra velocità e qualità, che me ne faccio di una grafica eccelsa se poi non me la posso godere fino in fondo a causa del framerate?? :D
ecco che viene fuori il tifoso ;)
allora se è per la velocità e come dici tu avendo un buon compromesso tra velocità e qualità:
NV30+NV30-path is faster than NV30+ARB2
e la differenza di qualità come dice J.C. è impercettibile... quindi NV30+NV30-path offre il miglior compromesso velocità/qualità poichè R300+ARB2 risulta impercettibilmente migliore come qualità ma peggiore come performance.
poi DoomIII deve ancora uscire... e come ho già detto ci saranno i driver nuovi ed ho già indicato perchè possono e perchè J.Carmack è convinto possano dare un notevole boost di performance al NV30.
Originally posted by "checo"
NV30+ARB2 is better than R300+ARB2 :rolleyes:
infatti :)
questa è una cosa molto importante... in pratica NV30 offre sia la soluzione con maggiore qualità che quella con maggiore performance ed ovviamente anche quella con migliore rapporto qualità/performance... c'è nè per tutti i gusti... e poi mancano ancora i driver nuovi che proprio in virtù delle evoluzioni tecnologiche apportate al chip possono dare un notevole incremento di prestazioni.
sanitarium
06-04-2003, 12:15
Originally posted by "checo"
NV30+ARB2 is better than R300+ARB2 :rolleyes:
poi che vada la metà è un'altro discorso.
cmq io non ci vedo nulla di mase in un game fanno delle modalità dedicate
Forse non mi sono spiegato, non ho detto che R300+ARB2 è la modalità che garantisce la migliore qualità, ho soltanto detto che è migliore della modalità NV30 fatta girare con GeforceFX. Mi sono stupito quindi soltanto del fatto che, con tutta una modalità dedicata, la qualità risulta inferiore di quella che si ha con R300+ARB2, tutto qua.
sanitarium
06-04-2003, 12:28
Originally posted by "DoomIII"
pensavo di essere stato chiaro e basta rileggere quello che ho scritto... ho detto che questa è l'impressione che mi fanno certi post e che era un discorso generale su molti di post di vari forum non rivolto particolarmente a te o a qualcuno in generale...
ad ogni modo visto che chiaro non lo sono stato... ripeto che non è mio intento offendere nessuno... e che si tratta di feeling feeback visto che tutti i pro-Ati o antinVidia sono di colpo insorti come se fosse accaduto un miracolo e nVidia fosse spacciata... per carità... nessuno nega i risultati Ati ma non mi sembra il caso di fare tanto chiasso per così poco... con il riscio appunto di fare un bel tonfo... perchè sinceramente se questa situazione attuale cambia (uso il condizionale ma io ne sono certo) nessuno poi ferma i pro nVidia a rompere con migliardi di post di esaltazione e di insulti a Ati.... cmq vabbè.. lasciamo stare sto argomento...
Ecco, è meglio...
guarda che qui mi sembra, ma potrei sbagliare ;) , che parli proprio da tifoso... intanto R300 non distrugge in prestazioni NV30... cmq che mi stia 'simpatica' nVidia non lo nego... ma non è per il suo nome... è per quello che fa... se faceva una scheda senza innovazioni ecc... avrei detto quello che ho detto del R300... puoi dire quello che vuoi ma io so di essere obiettivo... e non sto dicendo comprate NV30 perchè è meglio... se qualcuno mi chiede un consiglio... se può farne a meno gli direi di non comprare nulla ed aspettare perchè adesso sarebbe insulso fare acquisti inutili ( poi se uno ha soldi è un'altro discorso ;) ).
Innanzitutto non ho mai detto che R300 distrugge NV30 come prestazioni, mi sa che devi fare più attenzione a ciò che leggi... ;)
Spero veramente che se NV30 non fosse stato secondo te innovativo, avresti detto le stesse cose che stai dicendo di R300...
cmq forse abbiamo anche un target diverso poichè io sono molto appassionato dell'argomento e quindi mi interessano le innovazioni per cui è normale che favorisca tale scheda.
Io sono appassionato di videogiochi, ma mi interessano anche le schede per farli girare, ovviamente. Anche se non sono un esperto, mi piace discuterne.
non lo so, Unreal2 l'ho visto/provato (non sui miei PC) ma non mi interessa... è come motore è fixed-function oriented con qualche minimale sfruttamento di shader(sopratutto pixel).... assolutamente INUTILE per valutare le performance di una GPU programmabile.
Era soltanto per farti vedere che già un gioco "vecchio" (come lo definisci tu) fa faticare non poco qualsiasi sistema attualmente in circolazione, schede video comprese.
hmmm... si ma non solo... l'argomento è complesso... ma evitate di farmi fare un posto comparativo di confronto delle specifiche DX9 tra R300 e NV30 (registri , istruzioni, pixel shader, vertex shader che in parte ho già indicato ecc...) perchè l'R300 ne uscirebbe d'avvero male...
A me non interessa chi ce l'ha più lungo, mi interessa vedere ciò che mi offrono al momento le 2 schede. E visti i molteplici difetti della GeforceFX ultra (rumorosità, consumo, overclock e overvolt di fabbrica, dissipatore), non mi sento di dire assolutamente che è superiore alla 9700pro, tantomeno alla 9800pro.
Non mi fare elencare tutti i difetti della GeforceFX ultra, perché ne uscirebbe davvero male...
ecco che viene fuori il tifoso ;)
allora se è per la velocità e come dici tu avendo un buon compromesso tra velocità e qualità:
NV30+NV30-path is faster than NV30+ARB2
e la differenza di qualità come dice J.C. è impercettibile... quindi NV30+NV30-path offre il miglior compromesso velocità/qualità poichè R300+ARB2 risulta impercettibilmente migliore come qualità ma peggiore come performance.
poi DoomIII deve ancora uscire... e come ho già detto ci saranno i driver nuovi ed ho già indicato perchè possono e perchè J.Carmack è convinto possano dare un notevole boost di performance al NV30.
Se NV30+NV30 path sarà estremamente più veloce di R300+ARB2, varrà il tuo discorso, sennò... E poi, ripeto, vorrei tanto vedere Doom III girare con un R350 in modalità dedicata a questo chip...
Originally posted by "sanitarium"
Era soltanto per farti vedere che già un gioco "vecchio" (come lo definisci tu) fa faticare non poco qualsiasi sistema attualmente in circolazione, schede video comprese.
si, sono d'accordo... ma dal mio punto di vista è proprio qui il punto... il fatto è che commercialmente i produttori/sviluppatori non possono non considerare tutte le schede T&L e quindi non possono investire in un software GPU-oriented (cioè che sfrutti gli shader).
Come conseguenza abbiamo titoli T&L che sfruttano gli shader secondariamente per ottenere alcuni benefici in più... ma un titolo concepito , sviluppato ecc... per/con gli shader... sarebbe tutt'altra cosa ;)
Originally posted by "sanitarium"
A me non interessa chi ce l'ha più lungo, mi interessa vedere ciò che mi offrono al momento le 2 schede. E visti i molteplici difetti della GeforceFX ultra (rumorosità, consumo, overclock e overvolt di fabbrica, dissipatore), non mi sento di dire assolutamente che è superiore alla 9700pro, tantomeno alla 9800pro.
Non mi fare elencare tutti i difetti della GeforceFX ultra, perché ne uscirebbe davvero male...
guarda, qui ti do semplicemente ragione... infatti come ho detto sopra io non sto affatto dicendo comperate nVidia e non Ati (attualmente non suggerirei nessuno delle 2 schede se se ne può fare a meno...)... e sono d'accordo con te che alcuni problemi attuali siano più che fastidiosi in particolare la rumorosità... certo si spera che le prossime release risolvano questi problemi ;) e sicuramente saranno eliminati ...del resto siamo alla prima partita di schede.
Originally posted by "sanitarium"
Se NV30+NV30 path sarà estremamente più veloce di R300+ARB2, varrà il tuo discorso, sennò... E poi, ripeto, vorrei tanto vedere Doom III girare con un R350 in modalità dedicata a questo chip...
vabbè insomma... se con entrambi alla fine è giocabile non è che proprio mi interessi se su un sistema fa 100fps e sull'altro 120...
poi è troppo presto per tutte queste considerazioni... ripeto proprio in virtù dell'architettura che ha l'NV30 ci sono forti possibilità di incremento di prestazioni via driver... questo non deve suonare come una cosa 'strana', proprio per la tecnologia che c'è ci sono forti margini di miglioramento... ed ad ogni modo ritornando al motivo per il quale non consiglierei adesso di acquistare nulla... e che da Maggio/Giugno in poi da parte nVidia ne vedremo delle belle ;)
Originally posted by "DoomIII"
infatti :)
questa è una cosa molto importante... in pratica NV30 offre sia la soluzione con maggiore qualità che quella con maggiore performance ed ovviamente anche quella con migliore rapporto qualità/performance... c'è nè per tutti i gusti... e poi mancano ancora i driver nuovi che proprio in virtù delle evoluzioni tecnologiche apportate al chip possono dare un notevole incremento di prestazioni.
Parli di innovazioni, ce ne sono effettivamente, a quali ti riferisci?
FP precision 64bit(NV30) è "leggermente" + veloce che FP precision 96bit(R300), ma la qualità è visibilmente inferiore(hai presente 16bit e 24bit?).
FP precision 128bit(NV30) è veloce circa la metà dell'FP precision 96bit(solo R300), ma ha una qualità superiore, sicuramente la differenza è molto meno notabile per l'occhio umano fra 96 e 128bit che non fra 64 e 96bit.
FP precision a 64bit non è directX 9, 96bit si.
In directX9 con FP precision come da specifica l'R300 risulta + veloce di NV30 quasi del doppio, se invece si esce dalle specifiche NV30 diventa leggermente + veloce, ma questo in condizioni nelle quali non si fa uso di impostazioni particolari come i filtri e con una qualità inferiore.
Tutto questo avrà reale risalto sopratutto con le applicazioni future, non il contrario.
Se tu sei convinto che il miglior compromesso sia quello NV30, rispetto la tua convinsione, ma evita di tacciare gli altri di partigianeria pueriele se non condividono le tue riflessioni, se credi sia giusto fallo comunque ma ti suggerisco di farlo con spiegazioni un pò + tecniche e meno sofistiche, altrimenti fossi in te comincierei a pensare che se in 10 ti dicono una cosa, fosse pure che ci sono 3 fuori strada forse la verità assoluta non è quella che tu credi che sia.
Ciò detto, non voglio convincere nessuno e ripeto che rispetto il tuo punto di vista, ma sopratutto in questo confronto valutare l'R300 come un chip migliore dell'NV30 mi sembra realiastico, non puerilmente partigiano.
Ho invece qualche dubbio sul contrario.[/b]
yossarian
06-04-2003, 13:40
Originally posted by "DoomIII"
ho già avuto una discussione simile con un'altro utente su questo forum... un utente intelligente che date a lui le informazioni ed i link si è ricreduto... quindi non mi ripeto... fate una ricerca.
gli shader sono stati dati da nVidia in licenza sia per per le DX che per le OpenGL.
Prima di dare dei "poco intelligenti", anche se implicitamente, a qualcun altro, dovresti cercare di guardare nel tuo cervello: riesci a capire quello che dicono gli altri o no?
Non mi pare di aver negato che gli shader siano un'invenzione di nVIDIA; ho semplicemente detto che non sono e non rappresentano affatto l'unica rivoluzione nel mondo della modellazione 3D o dei videogiochi in particolare (e non solo di questi se vogliamo allargare il campo). E molte non sono targate nVIDIA. La differenza ti sembra tanto sottile?
Originally posted by "Darkman"
Questo non fa altro che rafforzare la mia tesi che a parte rare eccezzioni (Dev e poche altre...) che le riviste di computer in edicola non servono ad una mazza o non ne capiscono una mazza...
hai ragione....anche secondo me le riveste non capiscono una mazza....ma a mio parere PC professionale e' l'unica rivista chi si salva tra le centinaia....certo a volte sbaglia e dicono
[email protected]' a pari di altre e' senza dubbio la migliore!
OverClocK79®
06-04-2003, 14:31
Originally posted by "rera"
? cosa vuoi dire?
semplice
io mando a te un prodotto.......
come lo fanno tutti gli altri........
se me lo lasci giù e poi nn lo rivuoi indietro dopo il test hai un certo tipo di punteggio
se lo rivuoi indietro il punteggio scende ;)
IMHO mi sa che funziona così la cosa :)
BYEZZZZZZZZZZZ
halduemilauno
06-04-2003, 14:36
Originally posted by "OverClocK79®"
semplice
io mando a te un prodotto.......
come lo fanno tutti gli altri........
se me lo lasci giù e poi nn lo rivuoi indietro dopo il test hai un certo tipo di punteggio
se lo rivuoi indietro il punteggio scende ;)
IMHO mi sa che funziona così la cosa :)
BYEZZZZZZZZZZZ
ma lo sai si che questa è un'accusa ben precisa?ne hai le prove?
:eek: :eek:
ah. ho capito.
comunque la recensione su Pc Professionale potrebbe essere l'anticipazione di una comparativa tra Nv30 e derivati e r350 e derivati, almeno spero, e lì dovrano usare per forza di cose i driver migliori per ognuno dei chip recensiti. Anche se secondo me la loro metodologia per le schede 3d dovrebbe utilizzare bench basati sui giochi, non su programmi business, io non prenderei Nv30 o r350 per office e internet.
sanitarium
06-04-2003, 14:50
Originally posted by "DoomIII"
si, sono d'accordo... ma dal mio punto di vista è proprio qui il punto... il fatto è che commercialmente i produttori/sviluppatori non possono non considerare tutte le schede T&L e quindi non possono investire in un software GPU-oriented (cioè che sfrutti gli shader).
Come conseguenza abbiamo titoli T&L che sfruttano gli shader secondariamente per ottenere alcuni benefici in più... ma un titolo concepito , sviluppato ecc... per/con gli shader... sarebbe tutt'altra cosa ;)
Su questo hai ragione, i giochi vengono concepiti per far si che vengano fruiti dal maggior numero di persone possibile... E sicuramente nella pesantezza dei giochi di oggi riveste un ruolo non certo secondario la scarsa ottimizzazione del motore grafico, e il fatto che ancora le GPU non vengono sfruttate a dovere.
guarda, qui ti do semplicemente ragione... infatti come ho detto sopra io non sto affatto dicendo comperate nVidia e non Ati (attualmente non suggerirei nessuno delle 2 schede se se ne può fare a meno...)... e sono d'accordo con te che alcuni problemi attuali siano più che fastidiosi in particolare la rumorosità... certo si spera che le prossime release risolvano questi problemi ;) e sicuramente saranno eliminati ...del resto siamo alla prima partita di schede.
Bene, sono contento che abbiamo trovato un punto di accordo.
vabbè insomma... se con entrambi alla fine è giocabile non è che proprio mi interessi se su un sistema fa 100fps e sull'altro 120...
poi è troppo presto per tutte queste considerazioni... ripeto proprio in virtù dell'architettura che ha l'NV30 ci sono forti possibilità di incremento di prestazioni via driver... questo non deve suonare come una cosa 'strana', proprio per la tecnologia che c'è ci sono forti margini di miglioramento... ed ad ogni modo ritornando al motivo per il quale non consiglierei adesso di acquistare nulla... e che da Maggio/Giugno in poi da parte nVidia ne vedremo delle belle ;)
Aspettiamo e vediamo cosa ci riserva il futuro: visti gli sviluppi, mi attendo grandi cose anche da ATi, nell'immediato futuro! :)
Originally posted by "Cifer"
Parli di innovazioni, ce ne sono effettivamente, a quali ti riferisci?
FP precision 64bit(NV30) è "leggermente" + veloce che FP precision 96bit(R300), ma la qualità è visibilmente inferiore(hai presente 16bit e 24bit?).
FP precision 128bit(NV30) è veloce circa la metà dell'FP precision 96bit(solo R300), ma ha una qualità superiore, sicuramente la differenza è molto meno notabile per l'occhio umano fra 96 e 128bit che non fra 64 e 96bit.
FP precision a 64bit non è directX 9, 96bit si.
In directX9 con FP precision come da specifica l'R300 risulta + veloce di NV30 quasi del doppio, se invece si esce dalle specifiche NV30 diventa leggermente + veloce, ma questo in condizioni nelle quali non si fa uso di impostazioni particolari come i filtri e con una qualità inferiore.
Tutto questo avrà reale risalto sopratutto con le applicazioni future, non il contrario.
Visto che si parlava di DoomIII considero il tuo intelligente e costruttivo commento ovviamente inerente a DoomIII e non potrebbe essere altrimenti, quindi intanto John Carmack per il motore grafico di DoomIII si appoggia alle librerie OpenGL non alle DX.
poi vediamo un attimo cosa ci dice di tutti questi bit della qualità ecc....
There is no discernable quality difference, because everything is going into an 8 bit per component framebuffer. Few graphics calculations really need 32 bit accuracy. I would have been happy to have just 16 bit, but some texture calculations have already been done in 24 bit, so it would have been sort of a step back in some cases. Going to full 32 bit will allow sharing the functional units between the vertex and pixel hardware in future generations, which will be a good thing.
poi ho già postato... ma tu appunto non leggi... ma te lo ripeto:
Originally posted by "postato da me"
allora, intanto diciamo perchè per adesso la modalità ARB2 è più lenta su nVidia:
so when Nvidia runs fragment programs, they are at a higher precision than ATI's, which is some justification for the slower speed. Nvidia assures me that there is a lot of room for improving the fragment program performance with improved driver compiler technology.(J.Carmack)
innovazioni architetturali ce ne sono moltissime... fatti una ricerca... basta informarsi ... ma siccome non ti interessa ma vuoi solo per forza poter dire: nVidia schifo Ati figata...
altrimenti fai un bel confronto specifiche DX9, R300 e NV30 e smettete di basarvi su qualche righetta scritta da tifosi in qualche articolo o in qualche forum... pensi che la DX9 o le novità in generale stiano tutte nei numeri che hai citato sopra?
Originally posted by "Cifer"
Se tu sei convinto che il miglior compromesso sia quello NV30, rispetto la tua convinsione, ma evita di tacciare gli altri di partigianeria pueriele se non condividono le tue riflessioni, se credi sia giusto fallo comunque ma ti suggerisco di farlo con spiegazioni un pò + tecniche e meno sofistiche, altrimenti fossi in te comincierei a pensare che se in 10 ti dicono una cosa, fosse pure che ci sono 3 fuori strada forse la verità assoluta non è quella che tu credi che sia.
Ciò detto, non voglio convincere nessuno e ripeto che rispetto il tuo punto di vista, ma sopratutto in questo confronto valutare l'R300 come un chip migliore dell'NV30 mi sembra realiastico, non puerilmente partigiano.
Ho invece qualche dubbio sul contrario.[/b]
Intanto imparati a leggere... visto che:
1) si parlava di DoomIII e delle modalità di esecuzione per questo del NV30 e R300 e non citavo mie opinioni ma il confronto sulle modalità indicato da John Carmack
In terms of Performance :
NV30+NV30-path is faster than NV30+ARB2
NV30+NV30-path is faster than R300+ARB2
R300+ARB2 is faster than NV30+ARB2
R300+R200-path is faster than R300+ARB2
In terms of Quality :
NV30+ARB2 is better than NV30+NV30-path
NV30+ARB2 is better than R300+ARB2
R300+ARB2 is better than NV30+NV30-path
R300+ARB2 is better than R300+R200-path
2) era una conversazione con sanitarium ed i toni erano anche scherzosi totalmente diversi dal tuo modo arrogante di importi
mah, considero i miei post anche con tono scherzoso e mi sembra di aver avuto un piacevole scambio di opinioni con sanitarium... quando ho da dare ragione la do e mi piace fare un po di ironia(i botta e risposta sulle modalità di esecuzione di DoomIII sono sicuramente in questo senso e cosi interpratati da chiunque non sia come sembra invece sei tu).
Questa tua sparata/uscita così presuntuosa mi fa semplicente vedere come alcuni utenti pro Ati siano semplici tifosi... è proprio questa vostra arroganza di voler essere superiore a tutto e tutti ed avere sempre ragione che mi da alla nausea... state sempre a lamentarvi... dovete per forza dimostrare che nVidia è una schifezza e Ati è il massimo arrampicandovi sugli specchi... ho già dato in molti posti lode ad Ati perchè mi ritengo obiettivo... ma sinceramente visto gli utenti che questa possiede me ne sto pentendo...
Basta vedere l'origine di questo thread... ho letto gente inveire sulla suddetta rivista e gridare allo scandalo perchè:
pro Nv30:
prestazioni eccellenti
contro
prezzo elevato e rumorosita'
pro r300:
buon rapporto qualita'/prezzo
contro
nulla
mi spiegate qui sopra che cavolo c'è di così scandaloso?
lo so io... voi tifosi Ati sareste contesti solo se scriverebbero:
nVidia fa schifo non compratela invece Ati è fantastica è 1000 volte più veloce di nVidia.
Obiettivamente il riassunto sopra io lo interpreto a favore Ati... ma a voi questo evidentemente non basta... poi voler negare l'evoluzione tecnologica del NV30 è da stupidi ignoranti... nessuno poi nega i contro o i pro Ati... ma per voi tifosi ci sono solo contro nVidia e pro Ati quindi non si può ragionare. (ovviamente non è un discorso rivolto a tutti visto che con alcuni ho avuto interessanti argomentazioni... ma con altri sembra sia impossibile)
P.S.
leggiti tutti post prima di fare ste sparate... e se non ti basta rileggili...
sanitarium
06-04-2003, 15:00
Originally posted by "Cifer"
Parli di innovazioni, ce ne sono effettivamente, a quali ti riferisci?
FP precision 64bit(NV30) è "leggermente" + veloce che FP precision 96bit(R300), ma la qualità è visibilmente inferiore(hai presente 16bit e 24bit?).
FP precision 128bit(NV30) è veloce circa la metà dell'FP precision 96bit(solo R300), ma ha una qualità superiore, sicuramente la differenza è molto meno notabile per l'occhio umano fra 96 e 128bit che non fra 64 e 96bit.
FP precision a 64bit non è directX 9, 96bit si.
In directX9 con FP precision come da specifica l'R300 risulta + veloce di NV30 quasi del doppio, se invece si esce dalle specifiche NV30 diventa leggermente + veloce, ma questo in condizioni nelle quali non si fa uso di impostazioni particolari come i filtri e con una qualità inferiore.
Tutto questo avrà reale risalto sopratutto con le applicazioni future, non il contrario.
Se tu sei convinto che il miglior compromesso sia quello NV30, rispetto la tua convinsione, ma evita di tacciare gli altri di partigianeria pueriele se non condividono le tue riflessioni, se credi sia giusto fallo comunque ma ti suggerisco di farlo con spiegazioni un pò + tecniche e meno sofistiche, altrimenti fossi in te comincierei a pensare che se in 10 ti dicono una cosa, fosse pure che ci sono 3 fuori strada forse la verità assoluta non è quella che tu credi che sia.
Ciò detto, non voglio convincere nessuno e ripeto che rispetto il tuo punto di vista, ma sopratutto in questo confronto valutare l'R300 come un chip migliore dell'NV30 mi sembra realiastico, non puerilmente partigiano.
Ho invece qualche dubbio sul contrario.[/b]
Ma NV30+NV30 path vede l'uso di FP precision a 64-bit? E' per questo che è più veloce rispetto a NV30+ARB2 e di R300+ARB2?
Originally posted by "sanitarium"
Su questo hai ragione, i giochi vengono concepiti per far si che vengano fruiti dal maggior numero di persone possibile... E sicuramente nella pesantezza dei giochi di oggi riveste un ruolo non certo secondario la scarsa ottimizzazione del motore grafico, e il fatto che ancora le GPU non vengono sfruttate a dovere.
infatti
Originally posted by "sanitarium"
Bene, sono contento che abbiamo trovato un punto di accordo.
fa piacere anche a me... ripeto il mio discorso verteva su un piano tecnologico come innovazioni in particolare ci sono un paio di cose sugli shader d'avvero entusiasmanti... ma non nego assolutamente i problemi nVidia nè tanto meno il fatto che quando queste cose saranno sfruttate sicuramente anche Ati avrà le sue soluzioni in merito... e del resto non augurerei mai che ciò non avvenga perchè lo ammetto io sono tifoso... tifoso della concorrenza. :D
Originally posted by "sanitarium"
Aspettiamo e vediamo cosa ci riserva il futuro: visti gli sviluppi, mi attendo grandi cose anche da ATi, nell'immediato futuro! :)
bè, speriamo si facciano parecchia guerra sui prezzi! :D
dal campo Ati mi fanno anche piacere i suoi progressi nel campo mobile...
Golden American
06-04-2003, 16:33
credo che quanto meno pc professionale avrebbe dovuto aggiungere:
pro Nv30:
prestazioni eccellenti
contro
prezzo elevato e rumorosita'
pro r300:
prestazioni eccellenti
buon rapporto qualita'/prezzo
contro
nulla
xche' questa e' la realta' dei fatti..... ;)
x non essere di aprte altrimenti:
pro Nv30:
prestazioni eccellenti senza AA e AF
buona qualita' dei filtri applicati
contro
prezzo elevato e rumorosita'
pro r300:
prestazioni eccellenti sempre
ottima qualita' dei filtri applicati
buon rapporto qualita'/prezzo
contro
nulla
:pig:
che e' un'altra' realta'!
ps
ho una fx in mano....e una 9700pro nel case....vi faro' sapere!
su pc pro:
Pro: supporto dx9 e agp8x
buono il rapporto prestazioni/prezzo
Contro: Difficile trovare un lato negativo
non è che l'abbiano massacrata, ma secondo me non l'hanno testata per ciò che vale R350 (va da se che comunque NV30 non è tutto sto bidone, anzi, mi sta simpatico :) )
Originally posted by "DoomIII"
Visto che si parlava di DoomIII considero il tuo intelligente e costruttivo commento ovviamente inerente a DoomIII e non potrebbe essere altrimenti, quindi intanto John Carmack per il motore grafico di DoomIII si appoggia alle librerie OpenGL non alle DX.
1) Consideri male, se ho scritto "In directX9 con FP precision come da specifica l'R300 risulta + veloce di NV30 quasi del doppio, se invece si esce dalle specifiche NV30 diventa leggermente + veloce, ma questo in condizioni nelle quali non si fa uso di impostazioni particolari come i filtri e con una qualità inferiore.
Tutto questo avrà reale risalto sopratutto con le applicazioni future, non il contrario." è perchè intendevo esattamente ciò che ho scritto, "in directX9", anche le considerazioni sulla velocità nel caso dei filtri derivano comunque dall'unica applicazione DX9 sulla quale sono stati comparati i 2 chip e dall'uso o meno di drivers che rispettino in toto le specifiche di quelle api. Quando sottointendo DoomIII mi riferisco solo in termini di FPprecision esattamente come ho fatto nel post che hai quotato a pezzi.
Originally posted by "DoomIII"
poi ho già postato... ma tu appunto non leggi... ma te lo ripeto:
innovazioni architetturali ce ne sono moltissime... fatti una ricerca... basta informarsi ... ma siccome non ti interessa ma vuoi solo per forza poter dire: nVidia schifo Ati figata...
altrimenti fai un bel confronto specifiche DX9, R300 e NV30 e smettete di basarvi su qualche righetta scritta da tifosi in qualche articolo o in qualche forum... pensi che la DX9 o le novità in generale stiano tutte nei numeri che hai citato sopra?
2) Non addossarmi slogan che non mi appartengono, sei libero di pensare ed esprimere ciò che credi senza che sia io a dovertelo dire, ma usami la cortesia di riportare testualmente ciò che scrivo se non sei in grado di darne la giusta interpretazione, non mi pare che quello che ho scritto equivalga a "nVidia schifo Ati figata..."
Originally posted by "DoomIII"
Intanto imparati a leggere... visto che:
1) si parlava di DoomIII e delle modalità di esecuzione per questo del NV30 e R300 e non citavo mie opinioni ma il confronto sulle modalità indicato da John Carmack
3) e tu impara a scrivere.
Originally posted by "DoomIII"
2) era una conversazione con sanitarium ed i toni erano anche scherzosi totalmente diversi dal tuo modo arrogante di importi
4) Rispetto il tuo pensiero che mi vede arrogante ed imponente, non lo condivido.
Originally posted by "DoomIII"
Questa tua sparata/uscita così presuntuosa mi fa semplicente vedere come alcuni utenti pro Ati siano semplici tifosi... è proprio questa vostra arroganza di voler essere superiore a tutto e tutti ed avere sempre ragione che mi da alla nausea... state sempre a lamentarvi... dovete per forza dimostrare che nVidia è una schifezza e Ati è il massimo arrampicandovi sugli specchi... ho già dato in molti posti lode ad Ati perchè mi ritengo obiettivo... ma sinceramente visto gli utenti che questa possiede me ne sto pentendo...
5) Così come rispetto il tuo pensiero permettimi di esprimere il mio, sei puerile, non vuole essere un'offesa quanto una constatazione.
noia e monotonia.. ecco cosa sta diventando questo forum...
:rolleyes:
riusciamo a tornare sui giusti binari??
>bYeZ<
comunque Doom III lo cacci dalla porta e rientra dalla finestra......
si parlava della comparativa tra NV30 e R350 e delle modalità della recensione su PC Professionale, almeno all'inizio, poi non so..
Originally posted by "rera"
comunque Doom III lo cacci dalla porta e rientra dalla finestra......
si parlava della comparativa tra NV30 e R350 e delle modalità della recensione su PC Professionale, almeno all'inizio, poi non so..
vabbè è normale... DoomIII è un titolo molto atteso da tempo... ovvio che spesso salti fuori nelle argomentazioni...
non sono l'unico a notare che lo sport ufficiale del forum (in particolare di questa sezione) stia diventanto il "fare polemica e tifo sempre e cmq"...
non si può + cercare di intavolare una dsicussionesu questi argomenti che non finisca allo stesso modo.. e spesso ciò vuol dire chiusura della stessa e qualke ban o sospensione
mah
>bYeZ<
penso che la recensione di PcWorld sia stata più obiettiva...
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.