PDA

View Full Version : nVIDIA esclusa dal team di sviluppo DirectX 10


[JaMM]
04-10-2003, 14:15
La notizia, veramente stupefacente ed inaspettata, la trovate qui (http://www.hardware4you.sm). Non me l'aspettavo. :eek: :eek: :eek:

Hanamichi
04-10-2003, 14:20
io invece si...
ormai NVIDIA ha superato ogni limite!:mad:

Yagami
04-10-2003, 14:21
Certo che Nvidia sta prendendo batoste da tutte le direzioni ormai...

beppe
04-10-2003, 14:23
me lo immaginavo......con le cappelle che ha fatto per le dx9.....

se non si danno una mossa alla svelta e smettono gi prendere per il culo chi acquista le loro schede.........la vedo molto nera

NightStalker
04-10-2003, 14:23
mmm perchè pare che i nuovi detonator (i 51.xx presumo) modificano le librerie DirectX 9 (sarebbe questo il famoso "compilatore" pixel/vertex shader della Nvidia?) per regalare prestazioni alle schede FX...

mmm butta male per Nvidia, sta facendo una cappellata dietro l'altra... e questa è clamorosa...


speriamo che coll'NV40 si riprenda, altrimenti lo scettro (e il monopolio, che è quello che preoccupa) delle skede grafiche da gioco passerà ad Ati...

[JaMM]
04-10-2003, 14:25
Originariamente inviato da Hanamichi
io invece si...
ormai NVIDIA ha superato ogni limite!:mad:

sì ma non immaginavo che ci sarebbe stata una reazione tanto dura verso la politica di nVIDIA. Questo è un colpo non indifferente per nVIDIA...

Hanamichi
04-10-2003, 14:28
Originariamente inviato da [JaMM]
sì ma non immaginavo che ci sarebbe stata una reazione tanto dura verso la politica di nVIDIA. Questo è un colpo non indifferente per nVIDIA...

le conseguenze si pagano eccome se si pagano...
:rolleyes: mi dispiace per NVIDIA ma ormai la vedo veramente brutta:rolleyes:

Yagami
04-10-2003, 14:31
In fondo se non riescono ad implementare le DX9 nei loro chip, non mi sembra il caso di cominciare con le DX10...

REPSOL
04-10-2003, 14:32
Ma la microsoft non doveva fermarsi nello svilppo delle directx in modo che i programmatori riescano a implementare gran parte delle innovazioni dx9?

MHA io non capisco nemmeno la microsoft però :(

Hanamichi
04-10-2003, 14:33
Originariamente inviato da Yagami
In fondo se non riescono ad implementare le DX9 nei loro chip, non mi sembra il caso di cominciare con le DX10...

il problema nn è che nn sanno implimentarle... il fatto è che hanno scelto una strada tutta loro! hanno usato IL CG invece di seguire gli standard delle direct x 9 come fa ati!:muro:

Yagami
04-10-2003, 14:38
Originariamente inviato da Hanamichi
il problema nn è che nn sanno implimentarle... il fatto è che hanno scelto una strada tutta loro! hanno usato IL CG invece di seguire gli standard delle direct x 9 come fa ati!:muro:

Infatti. Ti sembra una cosa sensata? In pratica le FX dovrebbero avere delle DX propie per funzionare al meglio....
:eek:

[JaMM]
04-10-2003, 14:39
Originariamente inviato da REPSOL
Ma la microsoft non doveva fermarsi nello svilppo delle directx in modo che i programmatori riescano a implementare gran parte delle innovazioni dx9?

MHA io non capisco nemmeno la microsoft però :(

Prima o poi si deve iniziare a sviluppare queste nuove API (sempre che non siano già in sviluppo) e nVIDIA non farà parte del consorzio che le svilupperà. Mi pare però piuttosto grossa come notizia, potrebbe essere anche solo un rumour senza fondamento, io aspetterei qualche conferma ufficiale...

REPSOL
04-10-2003, 14:47
Originariamente inviato da [JaMM]
Prima o poi si deve iniziare a sviluppare queste nuove API (sempre che non siano già in sviluppo) e nVIDIA non farà parte del consorzio che le svilupperà. Mi pare però piuttosto grossa come notizia, potrebbe essere anche solo un rumour senza fondamento, io aspetterei qualche conferma ufficiale...


Si ma se ci fosse 1 anno 1 anno e mezzo di stallo vedremmo sicuramente giochi migliori. Pensate che con questo tempo usciranno tutte sk video dx9 quindi si alza la media di utenti con sk che supportano dx9 in modo da invogliare i programmatori ad usare di più queste librerie. Poi ci stà che mi sbagli ma la penso così.
E questo non si può nemmeno vedere come freno allo sviluppo tecnologico, visto che praticamente i giochi attuali 1 su 10 usa QUALCHE piccola funzione directx9, se si continua così non vederemmo mai giochi full directx.

Ciaoz

[JaMM]
04-10-2003, 14:52
Originariamente inviato da REPSOL
Si ma se ci fosse 1 anno 1 anno e mezzo di stallo vedremmo sicuramente giochi migliori. Pensate che con questo tempo usciranno tutte sk video dx9 quindi si alza la media di utenti con sk che supportano dx9 in modo da invogliare i programmatori ad usare di più queste librerie. Poi ci stà che mi sbagli ma la penso così.
E questo non si può nemmeno vedere come freno allo sviluppo tecnologico, visto che praticamente i giochi attuali 1 su 10 usa QUALCHE piccola funzione directx9, se si continua così non vederemmo mai giochi full directx.

Ciaoz

si ma parlo solo di sviluppare, non di rilasciare: credo che lo sviluppo di DirectX non sia cosa che richieda solo un anno, imho i tempi sono + lunghi...

prova
04-10-2003, 15:13
Questa è pesissima!

E' importante comprendere bene le ultime righe: gli ultimi detonator non si limitano ad applicare le tanto discusse "ottimizzazioni" ma modificano permanentemente il codice stesso delle librerie DirectX9.

Questo è il pezzo fondamentale.
Nvidia ha in questo modo violato il contratto, e viene esclusa.

Bè, c@zzi loro: l'hanno fatta grossa in questo modo.

Pensa l'utente che deve REINSTALLARE le Dx9 perchè i Detonator le hanno modificate ...

beppe
04-10-2003, 15:23
sono proprio messi male....

hanno barato anche in questo caso.....

dato che il loro progetto era + che altro basato sui paroloni.....e sostanza poca....hanno cercato di fare uscire schede dx9 aggiungendo qualche caratteristica al vecchio chip......

finora le è andato bene.....ma da hl2 in poi.....tutti questi problemi salteranno fuori......in hl2 si + gia' visto la bella figura che hanno fatto......per non parlare poi dell' antialias:rolleyes:

Redvex
04-10-2003, 15:32
Evvai siamo vicini alle Glide 4.x :D

Legolas84
04-10-2003, 15:38
E ora nvidia comincia a pagarle tutte...:)

E questo mi fa veramente felice.... spero che nvidia esca di scena piano piano come piano piano entri la XGI...

E poi via al duopolio Ati XGI....

Io vorrei proprio che succeddesse questo... forse perchè la cosa che mi ha dato più fastidio è stato essere preso per il culo.... ho passato Dicembre e Gennaio a pensare se prendere una 9700Pro o aspettare un NV30.... ringrazio di aver preso la 9700 per fortuna...

:rolleyes:

beppe
04-10-2003, 15:44
io invece sono stato costretto a sostituire la v5 5500 con la gf3 ti500 e la gf4 ti4600.....

ho aspettato che ati fosse all'altezza.......e alla rottura della gf3 ho preso una 9700 pro.....e mi sono sentito quasi a casa come ai vecchi tempi quando avevo solo schede 3dfx......

appena posso sostituiro' la gf4 e l'altra nvidia con tutte schede ati.....

non posso + vedere schede nvidia......è + forte di me

Legolas84
04-10-2003, 15:46
Originariamente inviato da beppe
io invece sono stato costretto a sostituire la v5 5500 con la gf3 ti500 e la gf4 ti4600.....

ho aspettato che ati fosse all'altezza.......e alla rottura della gf3 ho preso una 9700 pro.....e mi sono sentito quasi a casa come ai vecchi tempi quando avevo solo schede 3dfx......

appena posso sostituiro' la gf4 e l'altra nvidia con tutte schede ati.....

non posso + vedere schede nvidia......è + forte di me


Ti capisco... ho dovuto passare dalla voodoo 3000 alla GeForce 2 GTS perchè da me le Voodoo 5 non sono mai arrivate...:cry:

Dopo la Geforce 2 GTS ho preso una geForce 4 ti 4600 e poi indeciso tra NV30 e 9700pro ho poi preso quest'ultima...

Comunque niente è come era 3dfx...;)

Redvex
04-10-2003, 15:49
Scusa se fossero nvidia ati e xgi non sarebbe meglio?

Legolas84
04-10-2003, 15:53
Per me assolutamente no.... nvidia ha perso la mia fiducia.... e anche quella degli utenti più esperti....

E' una società di ciarlatani..... :rolleyes:

Dragon2002
04-10-2003, 15:55
Io invece nn capisco una cosa a cosa serve escluderli dallo sviluppo delle dx10 se poi permetterano alle loro schede di avere la piena compatibilita riportata sulle scatole delle fx,sarebbe stato più giusto togliere alle geforce fx la compatibilita sulle dx9 e nn permettergli più di scriverlo ne sulle scatole delle schede video messe in vendita ne da nessun altra parte,perchè prendono in giro la gente e pensare che si era capito oltre un'anno fa quando si era scoperto che la fx nn applicava il displacent mapping,ma voi l'avete difesa dicendo che nn era un'effetto importante e che l'importante erano i ps e vs 2.0,beh ora è stato dimostrato che nn supportano neanche quello,quindi la loro scheda è e rimane una scheda dx8.1,forse 8.0 visto che nn è nient'altro che una ti4600 overcloccata,che tra l'altro nn era dx8.1 ma solo 8.0 gli fu data la piena compatibilita solo perchè allora erano i padroni incontrastati ora nn lo sono più e quando cominci a navigare in brutte acque e in più imbrogli le prendi da tutte le parti.

Legolas84
04-10-2003, 15:56
Originariamente inviato da Dragon2002
Io invece nn capisco una cosa a cosa serve escluderli dallo sviluppo delle dx10 se poi permetterano alle loro schede di avere la piena compatibilita riportata sulle scatole delle fx,sarebbe stato più giusto togliere alle geforce fx la compatibilita sulle dx9 e nn permettergli più di scriverlo ne sulle scatole delle schede video messe in vendita ne da nessun altra parte,perchè prendono in giro la gente e pensare che si era capito oltre un'anno fa quando si era scoperto che la fx nn applicava il displacent mapping,ma voi l'avete difesa dicendo che nn era un'effetto importante e che l'importante erano i ps e vs 2.0,beh ora è stato dimostrato che nn supportano neanche quello,quindi la loro scheda è e rimane una scheda dx8.1,forse 8.0 visto che nn è nient'altro che una ti4600 overcloccata,che tra l'altro nn era dx8.1 ma solo 8.0 gli fu data la piena compatibilita solo perchè allora erano i padroni incontrastati ora nn lo sono più e quando cominci a navigare in brutte acque e in più imbrogli le prendi da tutte le parti.


Perfettamente daccordo! ;)

Yagami
04-10-2003, 15:58
Povero Tom's Hardware :D

Chissà come darà la notizia :rotfl:

beppe
04-10-2003, 15:59
non è detto che gli neghino la possibilita' di portare il marchio dx9....

come si stanno mettendo le cose....mi sa che dovranno toglierlo.....

Legolas84
04-10-2003, 15:59
Dicendo che nvidia è vittima di una congiura.... :D

mtitone
04-10-2003, 16:08
Si però un attimo...calma a tutti....da quanto ne so io il linguaggio CG è estremamente avanzato....il mio sospetto è che adesso a Nvidia le directx comincino a stare strette.....in buona sostanza hanno trovato il modo di far andare meglio i giochi con delle librerie diverse (migliori?) di quelle microsoft.....ma perchè deve sempre dettar legge microsoft?.....vi ricordate le glide di 3dfx?......erano delle librerie alternative alle directx e alle opengl.....andavano male?......ma dico vi ricordate come andava unreal tournament con schede 3dfx?.....se non lo ricordate ve lo ricordo: in maniera fantastica......ma allora se si può fare meglio delle directx io dico: PERCHE' NO?.........e badate bene che posseggo una 9700 pro, e quindi non posso essere tacciato di essere un fan Nvidia....a proposito...ma la 3dfx è stata acquistata da Nvidia, no?

Legolas84
04-10-2003, 16:11
3dfx andava alla grande anche senza le glide.....

Dragon2002
04-10-2003, 16:18
Tu puoi fare tutte le librerie che vuoi ma se vuoi la compatibilita per le dx9 devi avere la compatibilita per le dx9,se no scrivici Full Cg 1.0 compliant :sofico: :sofico: :sofico:

TripleX
04-10-2003, 16:30
Nvidia:muro: :muro: :muro:

al pari dei ladri....anche peggio

Saturn
04-10-2003, 16:33
Però questa notizia mi giunge nuova....certo che nVidia ultimamente realizza un successo dopo l'altro....:sofico:

TripleX
04-10-2003, 16:39
loro pero' sulla scatola srivono dx9+ compatibile e probabilmente intendono uno standard a parte non come ATi che e' dx9+ cioe' supporta le specifiche dx9 e oltre''.....:D :D :cry: :cry: :mc: sembra una cazzata ma cosi' non sono legalmente punibili xche' dx9 e dx9+ possono essere intesi come 2 standard distinti (FURBI B..SRDI)

io fossi in possesso di una FX farei causa a Nvidia x truffa aggravata .....premeditata naturalmente e organizzata (almeno in questo) all'inverosimile e recidivita' continua....azz gli sgamano i driver e sabotano le dx9......ma suicidatevi alla Nvidia please!

direi cmq che ci stanno riuscendo

TripleX
04-10-2003, 16:46
AZZ RAGA' NON COMPRATE + NVIDIA.....VI PREGO....NON DATE I VOSTRI SUDATI O MENO EURO A QUESTA RAZZA DI GENTE....mai visto una tale capacita' di perseverare nella truffa....ci vuole coraggio....ora probabilmente accusera' MS....o dira' che c'e' un bug nei driver non voluto che altera il codes delle dx....:mc:

Legolas84
04-10-2003, 16:48
Originariamente inviato da TripleX
ma suicidatevi alla Nvidia please!

direi cmq che ci stanno riuscendo

Ma LOL!
:D

prova
04-10-2003, 16:55
Ragazzi, vorrei sempre ricordare che Nvidia, come ogni società, è composta di persone che lavorano.
E che con quel lavoro mantengono figli, famiglie, la propria vita.

Se chiudesse un'imprese del genere vi sarebbero migliaia di persone in mezzo alla strada. Non lo auguro a nessuno.

andreamarra
04-10-2003, 17:00
Originariamente inviato da TripleX

io fossi in possesso di una FX farei causa a Nvidia x truffa aggravata .....premeditata naturalmente e organizzata (almeno in questo) all'inverosimile e recidivita' continua....azz gli sgamano i driver e sabotano le dx9......ma suicidatevi alla Nvidia please!

direi cmq che ci stanno riuscendo

Mi hai fatto venire un'idea malsana... adesso chiedo al mio avvocato personale se è possibile muovere causa alla nVIDIA per pubblicità ingannevole e altre nefandezze simili...
Se si mi compro una fx5900 e poi li cito per danni...

Altro che PhilipMorris!!!!
:D

yossarian
04-10-2003, 17:04
è da diversi mesi che continuo a ripetere che le FX, per rendere al meglio, hanno bisogno di ricevere istruzioni in forma "particolare"; questo non vuol dire che è sufficiente un compilatore che cambi la forma delle istruzioni suddette. L'NV3x ha bisogno che parte delle istruzioni siano in FX, ossia in virgola fissa, ossia compatibili con PS1.4, 1.3 e 1.1, così come ha difficoltà a lavorare a FP32 con framerate accettabili. Il primo dei due problemi nasce dall'architettura delle pipeline di rendering (struttura e interdipendenza tra ALU e TMU), il secondo da insufficiente capacità di alcuni registri temporanei.
Questo significa che la FX sono teoricamente DX9 ma, in pratica, per girare al meglio, hanno bisogno di ricevere istruzioni DX8.
Questo il motivo per cui tutte le path studiate per chip NV scalano da FP32 a FP16 e applicano, laddove è possibile (spesso, finora, perchè effetti che richiedano almeno FP24 finora non sono stati ancora utilizzati, anche se, p. es. il motore grafico di HL2 ne implementa alcuni, non utilizzati nei bench) applicano la sostuzione degli shader.
Come ripeto, non è un problema di "forma delle istruzioni"; quest'ultimo, semmai, può solo acuire problemi di natura architetturale (quello relativo ai registri confermato, implicitamente anche da nVIDIA).
Per quanto riguarda questa notizia, se vera, confermerebbe la sensazione che nVIDIA, stavolta, abbia tirato un po' troppo la corda (anche gli accordi tra ATi e MS per l'X-Box2 e tra ATi e SGI per dotare di chip grafici ATi alcuni dei prodotti di punta di SGI, avrebbero dovuto far riflettere in tal senso). Forse è ora che si ridimensioni

TripleX
04-10-2003, 17:18
Originariamente inviato da andreamarra
Mi hai fatto venire un'idea malsana... adesso chiedo al mio avvocato personale se è possibile muovere causa alla nVIDIA per pubblicità ingannevole e altre nefandezze simili...
Se si mi compro una fx5900 e poi li cito per danni...

Altro che PhilipMorris!!!!
:D

meglio puntare alla 5800ultra e accusarli della perdita dell'udito;)
o anche del tatto visto che a chi compra una FX oggi conviene toccarsi spesso le p@lle.....visto che ogni giorno ne escono di nuove
remunera di piu':sofico:
fx flow rulez:oink::D

[JaMM]
04-10-2003, 17:42
Originariamente inviato da prova
Ragazzi, vorrei sempre ricordare che Nvidia, come ogni società, è composta di persone che lavorano.
E che con quel lavoro mantengono figli, famiglie, la propria vita.

Se chiudesse un'imprese del genere vi sarebbero migliaia di persone in mezzo alla strada. Non lo auguro a nessuno.

Sono d'accordissimo con te; non si augura a nessuno di perdere il proprio lavoro, che si comporti bene o male. Sono però convinto che gente dotata di conoscenze di progettazione come gli ingegneri nVIDIA non resterà senza lavoro; il personale d'esperienza è sempre ben accetto, e figurati se ATi, S3 o XGI non ne approfitterebbero.

Fermo restando che una cosa del genere non si augura a nessuno;). Ciao!

prova
04-10-2003, 17:47
Originariamente inviato da [JaMM]
Sono d'accordissimo con te; non si augura a nessuno di perdere il proprio lavoro, che si comporti bene o male. Sono però convinto che gente dotata di conoscenze di progettazione come gli ingegneri nVIDIA non resterà senza lavoro; il personale d'esperienza è sempre ben accetto, e figurati se ATi, S3 o XGI non ne approfitterebbero.


Sì, ma ci sono anche MIGLIAIA di semplici impiegati ed operari. Lavoratori le cui competenze non li distinguono dalla massa.
E per i quali, quindi, trovare lavoro sarebbe assai più difficile.

Nvidia non è fatta di soli manager ed ingegneri! ;)

[JaMM]
04-10-2003, 17:51
Originariamente inviato da prova
Sì, ma ci sono anche MIGLIAIA di semplici impiegati ed operari. Lavoratori le cui competenze non li distinguono dalla massa.
E per i quali, quindi, trovare lavoro sarebbe assai più difficile.

Nvidia non è fatta di soli manager ed ingegneri! ;)

Si, hai ragione, infatti ho premesso che non auguro una sorte del genere a nVIDIA. Spero vivamente che possa riprendersi col prossimo chip NV40; non credo però che lo comprerò, non mi piace la politica che nVIDIA sta attuando.

falcon.eddie
04-10-2003, 19:01
Originariamente inviato da TripleX
AZZ RAGA' NON COMPRATE + NVIDIA.....VI PREGO....NON DATE I VOSTRI SUDATI O MENO EURO A QUESTA RAZZA DI GENTE


:yeah: :yeah: Hai proprio ragione,dammi il tuo C/C che ti faccio un bonifico,d'altronde avrai anche tu una famiglia da mantenere.

:muro: :rolleyes:

checo
04-10-2003, 19:13
mah!
escluderla dal team di sviluppo mi pare grossa.
certo è andata oltre ma tant'è se nv40 sarà un chip degno di r400 penso che non ci saranno problemi alcuni

yossarian
04-10-2003, 19:22
Originariamente inviato da checo
mah!
escluderla dal team di sviluppo mi pare grossa.
certo è andata oltre ma tant'è se nv40 sarà un chip degno di r400 penso che non ci saranno problemi alcuni

Credo si tratti più che altro di una mossa per farle capire che è arrivato il momento di "rientrare nei ranghi"; non penso proprio che sia un provvedimento irrevocabile.

goldorak
04-10-2003, 19:24
Originariamente inviato da yossarian
Credo si tratti più che altro di una mossa per farle capire che è arrivato il momento di "rientrare nei ranghi"; non penso proprio che sia un provvedimento irrevocabile.


Infatti quelle dichiarazioni vanno intese come una specie di ultimatum prima di escluderli del tutto.

checo
04-10-2003, 19:29
Originariamente inviato da yossarian
Credo si tratti più che altro di una mossa per farle capire che è arrivato il momento di "rientrare nei ranghi"; non penso proprio che sia un provvedimento irrevocabile.


lo credo pure io, ma;

nv40 è un buon chip e nvidia non fa più cavolate
nv40 è basato su nv30 ed allora si potrebbe perseverare

[JaMM]
04-10-2003, 19:32
Originariamente inviato da checo
mah!
escluderla dal team di sviluppo mi pare grossa.
certo è andata oltre ma tant'è se nv40 sarà un chip degno di r400 penso che non ci saranno problemi alcuni

ti capisco: anche a me sembrava un provvedimento drastico, ma sembra abbia violato una clausola di un accordo (o qualcosa del genere, la vicenda non è ancora molto chiara) secondo cui non poteva modificare le API DirectX 9. Pertanto è stata esclusa; o almeno così mi è parso di capire.

TripleX
04-10-2003, 19:34
Originariamente inviato da falcon.eddie
:yeah: :yeah: Hai proprio ragione,dammi il tuo C/C che ti faccio un bonifico,d'altronde avrai anche tu una famiglia da mantenere.

:muro: :rolleyes:

scommetto che 6 una vittima...:confused:

halduemilauno
04-10-2003, 19:48
Originariamente inviato da falcon.eddie
:yeah: :yeah: Hai proprio ragione,dammi il tuo C/C che ti faccio un bonifico,d'altronde avrai anche tu una famiglia da mantenere.

:muro: :rolleyes:


:vicini:

danige
04-10-2003, 19:52
Uhm è molto interessante questo rumors, e pare foste un pò troppo presi a criticare nVidia per analizzarla da un punto di vista tecnico, modificare le DX9 per sfruttare l'architettura NV30/35 mantenendo la compatibilità con tutti i software che le utilizzano sarebbe un buon passo avanti verso il vero sfruttamento del nostro hardware un pò come succede nel mondo consolle e pareva una strada non praticabile nel mondo pc senza che le software house dovessero riscrivere mezzo motore grafico ad ogni uscita di nuove VGA, se questa notizia è vera si potrebbero avere degli sviluppi molto interessanti su questo fronto

[JaMM]
04-10-2003, 20:01
Originariamente inviato da danige
Uhm è molto interessante questo rumors, e pare foste un pò troppo presi a criticare nVidia per analizzarla da un punto di vista tecnico, modificare le DX9 per sfruttare l'architettura NV30/35 mantenendo la compatibilità con tutti i software che le utilizzano sarebbe un buon passo avanti verso il vero sfruttamento del nostro hardware un pò come succede nel mondo consolle e pareva una strada non praticabile nel mondo pc senza che le software house dovessero riscrivere mezzo motore grafico ad ogni uscita di nuove VGA, se questa notizia è vera si potrebbero avere degli sviluppi molto interessanti su questo fronto

il punto è che sono state create delle API grafiche come standard di mercato: il che significa che produttori di schede video e di videogames possono attenersi a questo standard risparmiando tempo e denaro in termini di ottimizzazioni proprietarie verso hardware che non supporta lo standard. Non esiste una ragione valida per la quale nVIDIA non si debba attenere a questo standard; in tal modo ha solo generato scompiglio, ed è dovuta ricorrere ai ripari in modo non del tutto pulito. Se tutti si attenessero allo standard (anzichè imporre soluzioni proprietarie, come il CG di nVIDIA ed il Truform di ATi x fare due esempi fallimentari) non si creerebbero situazioni di questo genere: in tal caso nVIDIA ha violato quello che era lo standard di mercato, ed è stata esclusa dai futuri progetti per nuovi standard perchè non ha senso far partecipare ad un consorzio chi non si attiene alle regole del consorzio stesso. O almeno io la vedo così. Ciao!

AURON_OMEGA
04-10-2003, 20:02
speriamo che coll'NV40 si riprenda, altrimenti lo scettro (e il monopolio, che è quello che preoccupa) delle skede grafiche da gioco passerà ad Ati...


veramente lo ha gia da un pezzo

[JaMM]
04-10-2003, 20:04
Originariamente inviato da [JaMM]
il punto è che sono state create delle API grafiche come standard di mercato: il che significa che produttori di schede video e di videogames possono attenersi a questo standard risparmiando tempo e denaro in termini di ottimizzazioni proprietarie verso hardware che non supporta lo standard. Non esiste una ragione valida per la quale nVIDIA non si debba attenere a questo standard; in tal modo ha solo generato scompiglio, ed è dovuta ricorrere ai ripari in modo non del tutto pulito. Se tutti si attenessero allo standard (anzichè imporre soluzioni proprietarie, come il CG di nVIDIA ed il Truform di ATi x fare due esempi fallimentari) non si creerebbero situazioni di questo genere: in tal caso nVIDIA ha violato quello che era lo standard di mercato, ed è stata esclusa dai futuri progetti per nuovi standard perchè non ha senso far partecipare ad un consorzio chi non si attiene alle regole del consorzio stesso. O almeno io la vedo così. Ciao!

Nvidia's NV38 (along with the rest of the FX series) has been dubbed as a substandard card by team dx. This means that DX will not include NV in it's developement range for directx10. Team DX made the decision "as a favor to the graphics industry". Team DX claims that NV violated their partnership agreement by changing the DX9 code with their latest set of drivers as caught by Xbit labs recently. This violates the licensing agreement and conpromises DX's quality in order to make it seem as if ATi and NV cards alike display the same image quality (which would be really bad in this case). This can only be fixed by reinstalling dx9b

addirittura qui si specifica che la modifica delle DirectX by nVIDIA compromette la qualità delle immagini generate. Imho tutto ciò poteva essere evitato se solo ci si fosse attenuti allo standard.

NightStalker
04-10-2003, 20:05
io spero sinceramente che Nvidia si riprenda; nonostante la sua politica scorretta, è cmq stata una ditta capace di regalarci autentiche perle (quali la prima Geforce o la Geforce 3) e sarebbe un peccato perderla. Ho sempre sperato che il monopolio non rimanesse nelle mani della sola Nvidia, ma neanche che essa sparisse dal mercato.

danige
04-10-2003, 20:23
Originariamente inviato da [JaMM]
il punto è che sono state create delle API grafiche come standard di mercato: il che significa che produttori di schede video e di videogames possono attenersi a questo standard risparmiando tempo e denaro in termini di ottimizzazioni proprietarie verso hardware che non supporta lo standard. Non esiste una ragione valida per la quale nVIDIA non si debba attenere a questo standard; in tal modo ha solo generato scompiglio, ed è dovuta ricorrere ai ripari in modo non del tutto pulito. Se tutti si attenessero allo standard (anzichè imporre soluzioni proprietarie, come il CG di nVIDIA ed il Truform di ATi x fare due esempi fallimentari) non si creerebbero situazioni di questo genere: in tal caso nVIDIA ha violato quello che era lo standard di mercato, ed è stata esclusa dai futuri progetti per nuovi standard perchè non ha senso far partecipare ad un consorzio chi non si attiene alle regole del consorzio stesso. O almeno io la vedo così. Ciao!


Purtroppo è proprio il rispetto totale dello standard DirectX che ci ha portato ad avere schede grafiche sfruttate al 50% in nome della compatibilità, se si riuscisse ad ottimizzare le DX9 senza dover coinvolgere direttamente le varie software house e mantenendo la famosa compatibilità si avrebbero innegabili vantaggi, e spero fortemente che se veramente possibile si spinga in questo senso

MrPi82
04-10-2003, 20:59
Originariamente inviato da NightStalker
io spero sinceramente che Nvidia si riprenda; nonostante la sua politica scorretta, è cmq stata una ditta capace di regalarci autentiche perle (quali la prima Geforce o la Geforce 3) e sarebbe un peccato perderla. Ho sempre sperato che il monopolio non rimanesse nelle mani della sola Nvidia, ma neanche che essa sparisse dal mercato.

Un buon avversario e' solo un ostacolo da studiare e superare, se nvidia riuscisse a tornare sul mercato con prodotti performanti sicuramente ati lavorerebbe di + per creare molto di meglio, la competizione e' l'anima del commercio e chi ne beneficierebbe di + saremmo noi consumatori.....migliori prodotti, maggiore scelta e xche' no...una politica di vendita nn cosi' folle.....

Hanamichi
04-10-2003, 21:15
Originariamente inviato da [JaMM]
ti capisco: anche a me sembrava un provvedimento drastico, ma sembra abbia violato una clausola di un accordo (o qualcosa del genere, la vicenda non è ancora molto chiara) secondo cui non poteva modificare le API DirectX 9. Pertanto è stata esclusa; o almeno così mi è parso di capire.

a me pare che questo sia un ultimatum per nvidia... nn una cosa che nn si potrà modificare in futuro!;)

[JaMM]
04-10-2003, 21:22
Originariamente inviato da Hanamichi
a me pare che questo sia un ultimatum per nvidia... nn una cosa che nn si potrà modificare in futuro!;)

Lo credevo anch'io, ma guarda qui:

Nvidia's NV38 (along with the rest of the FX series) has been dubbed as a substandard card by team dx. This means that DX will not include NV in it's developement range for directx10. Team DX made the decision "as a favor to the graphics industry". Team DX claims that NV violated their partnership agreement by changing the DX9 code with their latest set of drivers as caught by Xbit labs recently. This violates the licensing agreement and conpromises DX's quality in order to make it seem as if ATi and NV cards alike display the same image quality (which would be really bad in this case). This can only be fixed by reinstalling dx9b

specifica chiaramente che è stato violato un accordo di licenza, quindi la cosa potrebbe anche finire x vie legali. Sinceramente spero che la cosa si risolva, ne ho abbastanza dei monopoli.

Hanamichi
04-10-2003, 21:31
Originariamente inviato da [JaMM]
Lo credevo anch'io, ma guarda qui:

Nvidia's NV38 (along with the rest of the FX series) has been dubbed as a substandard card by team dx. This means that DX will not include NV in it's developement range for directx10. Team DX made the decision "as a favor to the graphics industry". Team DX claims that NV violated their partnership agreement by changing the DX9 code with their latest set of drivers as caught by Xbit labs recently. This violates the licensing agreement and conpromises DX's quality in order to make it seem as if ATi and NV cards alike display the same image quality (which would be really bad in this case). This can only be fixed by reinstalling dx9b

specifica chiaramente che è stato violato un accordo di licenza, quindi la cosa potrebbe anche finire x vie legali. Sinceramente spero che la cosa si risolva, ne ho abbastanza dei monopoli.

beh se la cosa è così la vedo veramente male... speriamo che si risolva senza problemi!
:rolleyes:

PhoEniX-VooDoo
04-10-2003, 23:22
che polli...


...ho scritto una bella riflessione, poi l'ho riletta e mi sono sembrate solo parole aggiunte alle parole, quindi cancellata. cmq iniziava proprio cosi, come sopra "che polli..."

bye

P.S. Cmq niente dx10 prima del lancio di longhorn (2005)
P.S. checo cosa ti fa pensare che nv40 sara un buon chip? (ovviamente lo speriamo tutti, ma si sperava anche nel nv30...)

REPSOL
04-10-2003, 23:59
Originariamente inviato da PhoEniX-VooDoo
P.S. Cmq niente dx10 prima del lancio di longhorn (2005)



Nice almeno i programmatori non si danneranno l'anima ogni 5-6 mesi :D

Ciaoz

Redvex
05-10-2003, 07:39
Originariamente inviato da PhoEniX-VooDoo
che polli...


...ho scritto una bella riflessione, poi l'ho riletta e mi sono sembrate solo parole aggiunte alle parole, quindi cancellata. cmq iniziava proprio cosi, come sopra "che polli..."

bye

P.S. Cmq niente dx10 prima del lancio di longhorn (2005)
P.S. checo cosa ti fa pensare che nv40 sara un buon chip? (ovviamente lo speriamo tutti, ma si sperava anche nel nv30...)

Ti rispondo al secondo PS, secondo me sarà un buon chip xkè nessuno può xmettersi in un mercato come quello delle schede video di sbagliare, figuriamoci 2 volte di seguito, poi nvidia credo che con la batosta presa abbia imparato qualcosa no?

goldorak
05-10-2003, 07:54
Originariamente inviato da Redvex
Ti rispondo al secondo PS, secondo me sarà un buon chip xkè nessuno può xmettersi in un mercato come quello delle schede video di sbagliare, figuriamoci 2 volte di seguito, poi nvidia credo che con la batosta presa abbia imparato qualcosa no?


Secondo me il problema per nvidia risiede nel fatto che devono rivedere e riprogettare completamente il core. Queste scelte di progettazione per i futuri core vengono fatte con anni di anticipo quindi non credo a mio avviso che nel corto periodo nvidia possa correggere la rotta.
Altro discorso e' sul lungo periodo e in questo caso spero per loro che propongano finalmente un chip in grado di contrastare i chip ati per quando longhorn verra' finalmente rilasciato.
Il danno d'immagine per nvidia c'e stato e ci vorra' del tempo per sistemarlo.

Redvex
05-10-2003, 10:24
xò potrebbe essere che dello scarso rendimento di nv30 si siano accorti quasi subito e che quindi l'abbiano fatto uscire lostesso x non perdere quote di mercato, e buttarsi immediatamente su nv40

-=Krynn=-
05-10-2003, 10:46
apparte che nv40 hanno cominciato a svilupparlo io penso quando stavano ultimando nv20 (ci vuole tempoa progettare un chip), e quindi anche lui sarà bacato, seguendo la rotta nv30.

Solo i chip cominciati a essere progettati dopo il fallimento di nv30 saranno ok.


Apparte questo, nvidia non può fare uno standard proprio.
C'è riuscita 3dfx perchè all'epoca era la sola a proporre schede acceleratrici, e le sue schede volavano con le glide, mentre le schede avversarie arrancavano nel direct 3d.

Adesso, proporre uno standard fuori da dx è inconcepibile, anche perchè la ati, che si attiene a quello standard vola e conquista grosse fette di mercato.

Nvidia still:mc: :mc: :mc:

Kleidemos
05-10-2003, 10:48
magari questo fara riflettere nvidia sul suo modo di fare skede video.

TripleX
05-10-2003, 10:57
Originariamente inviato da Redvex
Ti rispondo al secondo PS, secondo me sarà un buon chip xkè nessuno può xmettersi in un mercato come quello delle schede video di sbagliare, figuriamoci 2 volte di seguito, poi nvidia credo che con la batosta presa abbia imparato qualcosa no?


scusa ma guarda che Nvidia ha toppato molto piu' di 2 volte....:rolleyes:
serie FX completa.....
serie MX completa.....
cheat dei driver ripetuti
cheat delle dx9
flow fx e oggi flow fx v2.0 sulla nuova fx come dire....ormai sono spacciata con chi ne capisce ma confido ai soli babbi che CREDONO CHE DOVE CI SIA SCRITTO NVIDIA CI SIA qualita'

ormai Nvidia si e' gia' arrresa non ha risorse per rifare una gpu nuova le ha investite nella ciofeca nv30 e nella pubblicita' che ha fatto (INCREDIBILE CONSCI DI AVER COSTRUITO UNA CIOFECA PRIMAGENERANO HYPE E POI SI AUTOSFOTTONO COL VIDEO SU FLOWFX...complimenti x la correttezza verso i clienti....come a dire ve ne siete accorti?? ma noi gia' lo sapevamo)

con tale comportamento Nvidia ha fatto capire solo che l'hw delle FX e' progettato con i piedi e che bisogna mettere pezze software qua e la.....e' inutile dire si ma se girasse con il suo path farebbe millemila fps quando abbiamo visto che non e' cosi'....difatti i risultati in HL2 dove fa meno fps si una 9600pro sono ottenuti con path proprietario e con qualita' peggiore applicando precisione 16bit.....della controparte ATi qualunque essa sia....altrimenti va come una MX....

Quando e' nato il caso quack si e' gridati allo scandalo....Ati ci deruba....Ati truffa e cosi' via.....pero' in quel caso che ne sappiamo che non sia stato qualche simpaticone del team addetto ai driver all'insaputa di chi gli stava piu' in alto.....come per dire ottimizzo cosi' faccio un figurone come programmer....
fatto sta' che poi non accaduto piu' nulla e con lo scandalo 3dmark2003 e relative patch addirittura le ATi ci hanno guadagnato in fps (almeno la mia) o per lo meno non ci hanno perso a dimostrazione che LORO erano in buona fede....si puo' dire lo stesso di Nvidia che con la patch ha perso 2000-2500 punti e poi casualmente e tornata a essere la piu' forte in tale bench??
nessuno si e' chiesto come mai ora va forte??
il fatto che alla Nvidia perseverino nel barare significa solo che l'ordine di cheattare viene dell'alto e ne sono coinvolti tutti.....o almeno lo sanno tutti.....
avete visto il caso UT2003 (ogni gioco ha una magagna:rolleyes: )....ebbene le FX non applicano il trilinear filtering in nessun caso neanche forzandolo da driver....cambiano pero' l'exe il tutto funge solo che gli fps calano del 30%....ora....a voi sembra corretto fare di tutto per andare come la controparte?
abbassare la qualita' video (penosa con AA di suo).....cheattare driver.....dx9 ......e quant'altro sia tweakkabile via software a tutti i costi....xche' non ammattere....ok abbiano creato un MOSTRO di scheda......in senso negativo....ma non temete ripareremo col prossimo progetto.....invece no si ostinano a far credere alla gente purtoppo ignorante in materia (che e' il 99% ) che FX e' sinonimo di potenza....qualita' e effetti cinematografici...LOL ma dove......quando le demo costruite DA E PER NVIDIA su ATI abbiamo visto che vanno il doppio e come?
facendole partire con i wrapper pensate se fossero state create ad ok x ATi.....
io mi sento fortemente offeso dalla politica di Nvidia e mi auguro esca dal settore VGA xche' non vorrei che latre aziende la imitassero solo per avere lo scettro......con tutto che non ho MAI e dico MAI acquistato una scheda Nvidia (anche se ne ho avute tramite altre vie) non xche' sono o mi credo piu' furbo ma solo xche' ho sempre messo al primo posto la QUALITA' alla VELOCITA' xche' lavorare su schede come le vecchie mx o gts2 anziche' sulle ATi del tempo (rage in tutto le salse) mi affaticava non poco la vista visto l'effetto blur di tali schede anche con refresh elevatissimi.....ora vedo che il 2d e' migliorato parecchio....anche se il tv-out assistito da chip esterni conexant philips & co rimane un aborto e cio' basta a indirizzare il mio acquisto.....ma il 3d ragazzi??
il 3d " THE WAY ...TO BE PLAYED......" si..."THE WAY TO BE FUCKED"
:rolleyes:

-=Krynn=-
05-10-2003, 11:03
concordo in pieno

halduemilauno
05-10-2003, 11:18
Originariamente inviato da TripleX
scusa ma guarda che Nvidia ha toppato molto piu' di 2 volte....:rolleyes:
serie FX completa.....
serie MX completa.....
cheat dei driver ripetuti
cheat delle dx9
flow fx e oggi flow fx v2.0 sulla nuova fx come dire....ormai sono spacciata con chi ne capisce ma confido ai soli babbi che CREDONO CHE DOVE CI SIA SCRITTO NVIDIA CI SIA qualita'

ormai Nvidia si e' gia' arrresa non ha risorse per rifare una gpu nuova le ha investite nella ciofeca nv30 e nella pubblicita' che ha fatto (INCREDIBILE CONSCI DI AVER COSTRUITO UNA CIOFECA PRIMAGENERANO HYPE E POI SI AUTOSFOTTONO COL VIDEO SU FLOWFX...complimenti x la correttezza verso i clienti....come a dire ve ne siete accorti?? ma noi gia' lo sapevamo)

con tale comportamento Nvidia ha fatto capire solo che l'hw delle FX e' progettato con i piedi e che bisogna mettere pezze software qua e la.....e' inutile dire si ma se girasse con il suo path farebbe millemila fps quando abbiamo visto che non e' cosi'....difatti i risultati in HL2 dove fa meno fps si una 9600pro sono ottenuti con path proprietario e con qualita' peggiore applicando precisione 16bit.....della controparte ATi qualunque essa sia....altrimenti va come una MX....

Quando e' nato il caso quack si e' gridati allo scandalo....Ati ci deruba....Ati truffa e cosi' via.....pero' in quel caso che ne sappiamo che non sia stato qualche simpaticone del team addetto ai driver all'insaputa di chi gli stava piu' in alto.....come per dire ottimizzo cosi' faccio un figurone come programmer....
fatto sta' che poi non accaduto piu' nulla e con lo scandalo 3dmark2003 e relative patch addirittura le ATi ci hanno guadagnato in fps (almeno la mia) o per lo meno non ci hanno perso a dimostrazione che LORO erano in buona fede....si puo' dire lo stesso di Nvidia che con la patch ha perso 2000-2500 punti e poi casualmente e tornata a essere la piu' forte in tale bench??
nessuno si e' chiesto come mai ora va forte??
il fatto che alla Nvidia perseverino nel barare significa solo che l'ordine di cheattare viene dell'alto e ne sono coinvolti tutti.....o almeno lo sanno tutti.....
avete visto il caso UT2003 (ogni gioco ha una magagna:rolleyes: )....ebbene le FX non applicano il trilinear filtering in nessun caso neanche forzandolo da driver....cambiano pero' l'exe il tutto funge solo che gli fps calano del 30%....ora....a voi sembra corretto fare di tutto per andare come la controparte?
abbassare la qualita' video (penosa con AA di suo).....cheattare driver.....dx9 ......e quant'altro sia tweakkabile via software a tutti i costi....xche' non ammattere....ok abbiano creato un MOSTRO di scheda......in senso negativo....ma non temete ripareremo col prossimo progetto.....invece no si ostinano a far credere alla gente purtoppo ignorante in materia (che e' il 99% ) che FX e' sinonimo di potenza....qualita' e effetti cinematografici...LOL ma dove......quando le demo costruite DA E PER NVIDIA su ATI abbiamo visto che vanno il doppio e come?
facendole partire con i wrapper pensate se fossero state create ad ok x ATi.....
io mi sento fortemente offeso dalla politica di Nvidia e mi auguro esca dal settore VGA xche' non vorrei che latre aziende la imitassero solo per avere lo scettro......con tutto che non ho MAI e dico MAI acquistato una scheda Nvidia (anche se ne ho avute tramite altre vie) non xche' sono o mi credo piu' furbo ma solo xche' ho sempre messo al primo posto la QUALITA' alla VELOCITA' xche' lavorare su schede come le vecchie mx o gts2 anziche' sulle ATi del tempo (rage in tutto le salse) mi affaticava non poco la vista visto l'effetto blur di tali schede anche con refresh elevatissimi.....ora vedo che il 2d e' migliorato parecchio....anche se il tv-out assistito da chip esterni conexant philips & co rimane un aborto e cio' basta a indirizzare il mio acquisto.....ma il 3d ragazzi??
il 3d " THE WAY ...TO BE PLAYED......" si..."THE WAY TO BE FUCKED"
:rolleyes:

tranne un paio di punti sono in disaccordo su tutto.avevi alcune buone argomentazioni poi il tifo ti ha fatto esagerare e fuorviare.
alla prossima.



:) :)

TripleX
05-10-2003, 11:24
NO PROBLEM...non volevo che nessuno s'aggregasse alla mia idea.....io penso questo ......ognuno e' libero di pensare altro.....solo che stai tranquillo che cio' che ho scritto e' tutto fuorche' tifo x ATi.....fossero state invertite le cose avrei detto lo stesso di Ati......o S3 o STM o chicchessia;)

e' solo che mi fanno incazz@re ste cose......xche' non e' un negozietto ma una SPA .....e se fai questo con le vga puoi fare lo stesso con tutti il resto che produci....un esempio:

xche' il KT800 x K8 va meglio della controparte Nforce3 Pro150......xche' ci si e' accorti grazie a un software che Nvidia ha implementato l'hypertransport a @azzo....infatti va a 600mhz e ha 8bit d'ampiezza contro gli 800mhz di Via e 16bit......xche'?
x risparmiare naturalmente.....pero' almeno nelle specifiche della mobo non ti limitare a scriver bus Hypertransport ma differenzialo aggiungendo le specifiche che hai modificato.....xche' ALi e Via ce l'hanno piu' grosso:p e non hanno badato a saltare qualche inteconnessione solo per limitare layer della scheda e piste x contenere il fatidico e unico interesse di Nvidia detto costo....sono dell'idea che non freghi molto a Nvidia della soddisfazione del proprio cliente....anzi

NB
ho una mobo nforce2.....quindi.....e ammetto che e' un buon chipset pero' x il resto....anche lui ha avuto e ha delle magagne....ma almeno non ha generato hype al lancio dello stesso... nessuno s'aspettava rullasse tanto .....eppure

checo
05-10-2003, 11:38
Originariamente inviato da AURON_OMEGA
veramente lo ha gia da un pezzo


il monopolio non direi proprio per fortuna.

checo
05-10-2003, 11:41
Originariamente inviato da PhoEniX-VooDoo

P.S. checo cosa ti fa pensare che nv40 sara un buon chip? (ovviamente lo speriamo tutti, ma si sperava anche nel nv30...)


nulla non ho idea di che architettura ha, spero per il mercato che sia un buon chip , tutto qua

[JaMM]
05-10-2003, 20:56
Originariamente inviato da TripleX
NO PROBLEM...non volevo che nessuno s'aggregasse alla mia idea.....io penso questo ......ognuno e' libero di pensare altro.....solo che stai tranquillo che cio' che ho scritto e' tutto fuorche' tifo x ATi.....fossero state invertite le cose avrei detto lo stesso di Ati......o S3 o STM o chicchessia;)

e' solo che mi fanno incazz@re ste cose......xche' non e' un negozietto ma una SPA .....e se fai questo con le vga puoi fare lo stesso con tutti il resto che produci....un esempio:

xche' il KT800 x K8 va meglio della controparte Nforce3 Pro150......xche' ci si e' accorti grazie a un software che Nvidia ha implementato l'hypertransport a @azzo....infatti va a 600mhz e ha 8bit d'ampiezza contro gli 800mhz di Via e 16bit......xche'?
x risparmiare naturalmente.....pero' almeno nelle specifiche della mobo non ti limitare a scriver bus Hypertransport ma differenzialo aggiungendo le specifiche che hai modificato.....xche' ALi e Via ce l'hanno piu' grosso:p e non hanno badato a saltare qualche inteconnessione solo per limitare layer della scheda e piste x contenere il fatidico e unico interesse di Nvidia detto costo....sono dell'idea che non freghi molto a Nvidia della soddisfazione del proprio cliente....anzi

NB
ho una mobo nforce2.....quindi.....e ammetto che e' un buon chipset pero' x il resto....anche lui ha avuto e ha delle magagne....ma almeno non ha generato hype al lancio dello stesso... nessuno s'aspettava rullasse tanto .....eppure

ignoravo il discorso del bus HyperTransport... cmq ragazzi credo che sarà bene, per il futuro, tenere gli occhi aperti; le scorrettezze le ha commesse nVIDIA, ma nessuno ci garantisce che in futuro altri produttori non si comportino allo stesso modo. Anche se spero vivamente che avvenimenti analoghi non si verifichino +. ciao!

S4dO
05-10-2003, 22:08
Originariamente inviato da prova
Ragazzi, vorrei sempre ricordare che Nvidia, come ogni società, è composta di persone che lavorano.
E che con quel lavoro mantengono figli, famiglie, la propria vita.

Se chiudesse un'imprese del genere vi sarebbero migliaia di persone in mezzo alla strada. Non lo auguro a nessuno.




sono d'accordo anch'io anche se ho ATI.

NightStalker
05-10-2003, 22:25
Originariamente inviato da prova
Ragazzi, vorrei sempre ricordare che Nvidia, come ogni società, è composta di persone che lavorano.
E che con quel lavoro mantengono figli, famiglie, la propria vita.

Se chiudesse un'imprese del genere vi sarebbero migliaia di persone in mezzo alla strada. Non lo auguro a nessuno.



Originariamente inviato da S4dO
sono d'accordo anch'io anche se ho ATI.


ehm direi che in questo caso uno dovrebbe essere d'accordo in qualunque caso, Ati o non Ati... :p

pandyno
05-10-2003, 23:02
Non credo sia un problema per nvidia non essere più leader, ATI è rimasta anni dietro 3dfx e nvidia.
Piuttosto mi aspetto che nvidia prosegui con i chipset, dove ha portato veramente innovazioni non da poco nel campo amd

CYRANO
06-10-2003, 01:06
Originariamente inviato da TripleX
scusa ma guarda che Nvidia ha toppato molto piu' di 2 volte....:rolleyes:

serie MX completa.....


Ma che cavolo dici? Mx un fiasco?
Io mi son tenuto la Gf2mx per oltre 1 anno ed ho semprem giocato a 1024 al max della risoluzione... solo alla fine di quell'anno temporale con i nuovi giochi ho dovuto scendere a compromessi...

:rolleyes: :rolleyes:

La serie Mx , almeno la prima basata su Gf2 , è stata una bella serie economica ma con prestazioni più che decenti...





Ciaozzz

REPSOL
06-10-2003, 03:29
Originariamente inviato da CYRANO
Ma che cavolo dici? Mx un fiasco?
Io mi son tenuto la Gf2mx per oltre 1 anno ed ho semprem giocato a 1024 al max della risoluzione... solo alla fine di quell'anno temporale con i nuovi giochi ho dovuto scendere a compromessi...

:rolleyes: :rolleyes:

La serie Mx , almeno la prima basata su Gf2 , è stata una bella serie economica ma con prestazioni più che decenti...





Ciaozzz


Concordo l'avevo anche io.. e ce l'ho sempre anche ora :D

Simon82
06-10-2003, 06:44
Originariamente inviato da CYRANO
Ma che cavolo dici? Mx un fiasco?
Io mi son tenuto la Gf2mx per oltre 1 anno ed ho semprem giocato a 1024 al max della risoluzione... solo alla fine di quell'anno temporale con i nuovi giochi ho dovuto scendere a compromessi...

:rolleyes: :rolleyes:

La serie Mx , almeno la prima basata su Gf2 , è stata una bella serie economica ma con prestazioni più che decenti...





Ciaozzz
Credo che lui intendesse tutte le MX venute dopo.. 200, 400 ecc ecc.. in effetti sono state una serie inutile. La prima 2 MX liscia invece e' stata un'ottima scheda.. ;)

raph45
06-10-2003, 07:44
Originariamente inviato da Simon82
Credo che lui intendesse tutte le MX venute dopo.. 200, 400 ecc ecc.. in effetti sono state una serie inutile. La prima 2 MX liscia invece e' stata un'ottima scheda.. ;)

Nell'epoca dei 32 bit è stata un'ottima scheda sui 16 bit!!:rolleyes:

P.S: L'ho avuta anch'io, e anche li ci sono stati i trucchetti di nvidia.

Simon82
06-10-2003, 07:49
Originariamente inviato da raph45
Nell'epoca dei 32 bit è stata un'ottima scheda sui 16 bit!!:rolleyes:

P.S: L'ho avuta anch'io, e anche li ci sono stati i trucchetti di nvidia.
Mah.. personalmente ci ho giocato tranquillamente a 32bit logicamente non utilizzando l'FSAA, ma con quel che costava non si poteva certo pretendere molto.. ne venivo da una Voodoo3 2000.. ;)

REPERGOGIAN
06-10-2003, 07:59
Originariamente inviato da REPSOL
Ma la microsoft non doveva fermarsi nello svilppo delle directx in modo che i programmatori riescano a implementare gran parte delle innovazioni dx9?

MHA io non capisco nemmeno la microsoft però :(

infatti

Simon82
06-10-2003, 08:30
Originariamente inviato da REPERGOGIAN
infatti
La frase di Tom Hanks che hai nella sign potrebbe riferirsi tranquillamente al Tom Hardware nei confronti di Nvidia visto l'argomento del thread.. :D:D:D:D:D..

Nvidia..scuusaaamiii.. non ce la faccio a difenderti.. scusaaa..


:sofico:

raph45
06-10-2003, 08:33
Originariamente inviato da Simon82
Mah.. personalmente ci ho giocato tranquillamente a 32bit logicamente non utilizzando l'FSAA, ma con quel che costava non si poteva certo pretendere molto.. ne venivo da una Voodoo3 2000.. ;)

A 1024 a 32 bit era già al limite con diversi giochi, specie alle frequenze di default.

CYRANO
06-10-2003, 08:37
Originariamente inviato da Simon82
Credo che lui intendesse tutte le MX venute dopo.. 200, 400 ecc ecc.. in effetti sono state una serie inutile. La prima 2 MX liscia invece e' stata un'ottima scheda.. ;)

Si su questo posso essere d'accordo... specialmente sulla Gf4Mx200 , ce l'aveva un mio amico ed era davvero una chiavica...infatti l'ha subito cambiata con una 4200 ( ed il bello è che gliel'avevo detto di non pigliarsi la Mx200 ... )





Ciaozzz

checo
06-10-2003, 09:19
la gefore2 mx era una scheda di facia bassa e andava benone.
certo a 32 bit soffriva più della controparte radeon, però il suo lavoro lo faceva

Hanamichi
06-10-2003, 09:24
Originariamente inviato da checo
la gefore2 mx era una scheda di facia bassa e andava benone.
certo a 32 bit soffriva più della controparte radeon, però il suo lavoro lo faceva

a me la geppo 2 mx nn mi è piaciuta per niente per quanto riguarda la qualità grafica... tutto troppo spento...:rolleyes:
l'ho provata contro una 8500!:p

checo
06-10-2003, 09:27
Originariamente inviato da Hanamichi
a me la geppo 2 mx nn mi è piaciuta per niente per quanto riguarda la qualità grafica... tutto troppo spento...:rolleyes:
l'ho provata contro una 8500!:p

il fatto è che di norma si utilizzava a 16 bit e i colori erano effettivamente slavati.
però come prestazioni non era nulla male.
quando la comprai come alternativa c'era solo la v3 e quindi fu una scelta obbligata

Hanamichi
06-10-2003, 09:30
Originariamente inviato da checo
il fatto è che di norma si utilizzava a 16 bit e i colori erano effettivamente slavati.
però come prestazioni non era nulla male.
quando la comprai come alternativa c'era solo la v3 e quindi fu una scelta obbligata

dico come qualità video... nn dei 16 bit...
quando l'ho messa su e ho visto il deskop mi dava veramente fastidio vedere come la qualità calava notevolmente...
ho rimesso la 8500 e tutto era tornato come prima! colori accesissimi e brillantissimi!:D

CS25
06-10-2003, 09:43
Il problema era che all'epoca Nvidia dava delle linee guida piuttosto ampie ai vari produttori, nelle quali non imponeva una qualita' minima per determinati componenti. Di conseguenza molti (sparkle, mentor... addirittura anche Asus) montavano sulle schede MX filtri anti-emissioni elettromagnetiche di qualita' bassa, i quali si filtravano il segnale ma ne degradavano la pulizia in maniera impressionante. Non era quindi "fantasia" il fatto che le MX e in alcuni casi perfino le gf3 avessero qualita' visiva inferiore, slavata. Occhio, si parla di nitidezza e resa dei colori, non di rendering! :)
Figuratevi che io notai enorme differenza tra le gf3 Asus e le Elsa a favore di queste ultime, peccato me se ne siano fuse due :eek:
Dal geforce4 in poi c'e' stato il giro di vite, tant'e' che specialmente dalle Ti e' stato sempre piu' difficile notare differenze con la controparte Ati, fino alle FX che in 2d hanno una qualita' visiva quasi indistinguibile (personalmente ho provato su stesso monitor una 9700pro, una 5800 ultra, una 9800pro ed una 5900 ultra...).
Ati al contrario fin da subito ha preteso che ogni singolo componente rispettasse determinati standard, ecco perche' non ha mai avuto grossi problemi.
In questo sicuramente Nvidia ha imparato da Ati, ed ha saputo affrontare anche la rogna delle onde che era apparsa ora con l'NV35. Una luce nell'oscurita' del suo comportamento attuale :)

Simon82
06-10-2003, 09:45
Ma la 2 MX non aveva gia il Vibrant Digital color o come si chiamava per aumentare i colori? ;)

checo
06-10-2003, 09:48
Originariamente inviato da Simon82
Ma la 2 MX non aveva gia il Vibrant Digital color o come si chiamava per aumentare i colori? ;)
assolutamente no, almeno non coi detonator del tempo

sslazio
06-10-2003, 09:53
io intanto continuo a giocare con una 5800.
Il giorno che uscirà HL e che andrà a 3 fps comincerò ad incazzarmi, ma ora tutto quello che inserisco non solo funiziona bene e subito, ma anche in maniera strafluida, giochi dx9 compresi.
Doom3 da quel che si è capito girerà in maniera impeccabile su schede nvidia e come sappiamo il motore di quel gioco sarà presumibilmente utilizzato per altre decine e decine di giochi.
Il motore di HL farà lo stesso, ma non è escluso che nvidia non tiri fuori qualche coniglio dal cappello facendo l'oro con il piombo.
vedremo anche qui, continuo a non capire quest'astio terribile nei confronti di un produttore di chip video che per quanto responsabile della morte di 3dfx ha comunque dimostrato all'epoca di saper realizzare prodotti più potenti ed innovativi (chi ha detto 32bit di colore nei giochi?).
3dfx era rimasta ancora in maniera eccessiva a sti benedetti 16bit e la differenza era ormai eccessiva per altro aveva gli stessi fps nei giochi di una rivale nvidia che girava a 32bit.
Chiusa questa parentesi (ed io ne ho avute parecchie di 3dfx quindi mi dispiace l'accaduto), c'è il rischio che ati diventi la futura nvidia, sparandoci poi delle 9700 overcloccate per i prossimi 10 anni perchè tanto come rivale si ritroverebbe quella cagata di XGI.

CS25
06-10-2003, 09:56
SSlazio sei molto coraggioso ad esprimere quel tuo punto di vista, quando l'ho fatto io mi hanno sbranato :)
Cio' che dici e' vero, AL MOMENTO l'unico titolo che zoppica veramente sulle FX e' Tomb Raider, e permettimi di far notare che tutto e' fuorche' un capolavoro (sul mio sistema e' durato X secondi, soppiantato da Chrome e Jedi Accademy...).
Se e' vero che Half Life 2 uscira' a dicembre o con l'anno nuovo, e Doom3 ancora piu' in la' (aprile?), i nodi al pettine delle FX arriveranno tra un pezzo.

Cio' che si discute e' che quindi chi ha una FX al momento non ha problemi, ma chi deve comprare ORA e' il caso che si rivolga alle radeon che danno certezze in dx9, e non incertezze-dubbi-sotterfugi-promessenonancorarealizzate come la serie FX di Nvidia.

sslazio
06-10-2003, 10:05
Originariamente inviato da CS25
SSlazio sei molto coraggioso ad esprimere quel tuo punto di vista, quando l'ho fatto io mi hanno sbranato :)
Cio' che dici e' vero, AL MOMENTO l'unico titolo che zoppica veramente sulle FX e' Tomb Raider, e permettimi di far notare che tutto e' fuorche' un capolavoro (sul mio sistema e' durato X secondi, soppiantato da Chrome e Jedi Accademy...).
Se e' vero che Half Life 2 uscira' a dicembre o con l'anno nuovo, e Doom3 ancora piu' in la' (aprile?), i nodi al pettine delle FX arriveranno tra un pezzo.

Cio' che si discute e' che quindi chi ha una FX al momento non ha problemi, ma chi deve comprare ORA e' il caso che si rivolga alle radeon che danno certezze in dx9, e non incertezze-dubbi-sotterfugi-promessenonancorarealizzate come la serie FX di Nvidia.

Che io sappia i motori grafici utilizzati nei vari Tomb raider hanno da sempre fatto schifo, o sbaglio?
Comunque se è vero tutto sto casino ora come ora per andare tranquilli sarebbe bene comprare una scheda ATI.
Tuttavia questo futuro matrimonio ATI+Microsoft, le continue diatribe Nvidia Microsoft per il costo dei chip video dell'Xbox non vorrei fossero il risultato di quanto sta accadendo, della serie puniamo nvidia sparando caxxate o quanto meno facendo di un focherello un incendio.
Quanta gente non sta comprando schede 5800 e 5900 per questi rumors?
Risposta: tantissimi.
Quanta gente è sicura al 100% che su una 5800 o 5900 non potranno girare giochi dx9?
Risposta: nessuno tranne quelli della Valve, della Microsoft e della ATI.
Quello che voglio dire è aspettiamo, io ad oggi non ho ancora visto qualcosa non girare, anzi da ex possessore di Ati ad oggi ho avuto solo benefici nel cambio fatto e non parlo di performance (vengo da una 8500 Retail 300@290), ma di compatibilità nei giochi (niente più crash e artefatti e mi sono fermato a catalyst 3.2-3.4 se non erro quindi drivers recenti).

halduemilauno
06-10-2003, 10:13
Originariamente inviato da CS25
SSlazio sei molto coraggioso ad esprimere quel tuo punto di vista, quando l'ho fatto io mi hanno sbranato :)
Cio' che dici e' vero, AL MOMENTO l'unico titolo che zoppica veramente sulle FX e' Tomb Raider, e permettimi di far notare che tutto e' fuorche' un capolavoro (sul mio sistema e' durato X secondi, soppiantato da Chrome e Jedi Accademy...).
Se e' vero che Half Life 2 uscira' a dicembre o con l'anno nuovo, e Doom3 ancora piu' in la' (aprile?), i nodi al pettine delle FX arriveranno tra un pezzo.

Cio' che si discute e' che quindi chi ha una FX al momento non ha problemi, ma chi deve comprare ORA e' il caso che si rivolga alle radeon che danno certezze in dx9, e non incertezze-dubbi-sotterfugi-promessenonancorarealizzate come la serie FX di Nvidia.


ciao.
ho giocato a tomb raider con estrema soddisfazione con la scheda in sign.
per quanto riguarda le tue conclusioni non sarei cosi drastico.
a presto.
:) :)



a pare che la "notizia"(che da il titolo)sia completamente falsa.

Simon82
06-10-2003, 10:15
Originariamente inviato da checo
assolutamente no, almeno non coi detonator del tempo
Io ho avuto solo una scheda nvidia (PixelView GeForce2 MX 32Mb) e con i detonator del tempo (stiamo parlando dei tempi antecedenti ai Detonator XP se non sbaglio quindi prima della versione 20.xx (credo..), mi ricordo che potevo settare a mio piacimento il valori di quella feature.. ;)

checo
06-10-2003, 10:26
quando l'ho presa io c'erano i detonator 6 e il dvc non esisteva.
certo si poteva smanettare sui colori in altri modi, ma la differenza con ati rimaneva.

CS25
06-10-2003, 10:43
Anche io ho sentito che la notizia quasi sicuramente e' falsa, ma senza conferme ufficiali da una parte o dall'altra continuo ad affrontare il discorso coi "se" e coi "ma" :)

fek
06-10-2003, 11:05
Originariamente inviato da Yagami
Povero Tom's Hardware :D

Chissà come darà la notizia :rotfl:

Non da' la notizia, infatti questa e' una bufala :)

rob-roy
06-10-2003, 11:18
Certo che già da subito dire che XGI è una cagata.....cosa hai la sfera di cristallo...:rolleyes:

CS25
06-10-2003, 11:23
E' una reazione "normale" ai prodotti precedenti (lo xabre...), cosi' come molti con la stessa sfera di cristallo danno per spacciato pure l'NV40 :)
Io mi siedo sulla riva del fiume ed attendo :)

yossarian
06-10-2003, 11:28
Originariamente inviato da CS25
Il problema era che all'epoca Nvidia dava delle linee guida piuttosto ampie ai vari produttori, nelle quali non imponeva una qualita' minima per determinati componenti. Di conseguenza molti (sparkle, mentor... addirittura anche Asus) montavano sulle schede MX filtri anti-emissioni elettromagnetiche di qualita' bassa, i quali si filtravano il segnale ma ne degradavano la pulizia in maniera impressionante. Non era quindi "fantasia" il fatto che le MX e in alcuni casi perfino le gf3 avessero qualita' visiva inferiore, slavata. Occhio, si parla di nitidezza e resa dei colori, non di rendering! :)
Figuratevi che io notai enorme differenza tra le gf3 Asus e le Elsa a favore di queste ultime, peccato me se ne siano fuse due :eek:
Dal geforce4 in poi c'e' stato il giro di vite, tant'e' che specialmente dalle Ti e' stato sempre piu' difficile notare differenze con la controparte Ati, fino alle FX che in 2d hanno una qualita' visiva quasi indistinguibile (personalmente ho provato su stesso monitor una 9700pro, una 5800 ultra, una 9800pro ed una 5900 ultra...).
Ati al contrario fin da subito ha preteso che ogni singolo componente rispettasse determinati standard, ecco perche' non ha mai avuto grossi problemi.
In questo sicuramente Nvidia ha imparato da Ati, ed ha saputo affrontare anche la rogna delle onde che era apparsa ora con l'NV35. Una luce nell'oscurita' del suo comportamento attuale :)


anche se, in questo campo, tutte e due avrebbero ancora qualcosa da imparare da Matrox

ciao CS
;)

halduemilauno
06-10-2003, 11:29
Originariamente inviato da CS25
E' una reazione "normale" ai prodotti precedenti (lo xabre...), cosi' come molti con la stessa sfera di cristallo danno per spacciato pure l'NV40 :)
Io mi siedo sulla riva del fiume ed attendo :)


condivido. non mi vedi sono al tuo fianco.

;)

yossarian
06-10-2003, 11:38
Originariamente inviato da sslazio
Quanta gente non sta comprando schede 5800 e 5900 per questi rumors?
Risposta: tantissimi.


risposta sbagliata; sono molto pochi; quanti sono quelli a conoscenza di queste grane della serie FX? solo quelli che frequentano i forum o leggono recensioni on line (cioè una percentuale minima) e, di questi, non tutti, mi pare abbiano acquistato o abbiano intenzione di acquistare ATi.

Originariamente inviato da sslazio
Quanta gente è sicura al 100% che su una 5800 o 5900 non potranno girare giochi dx9?
Risposta: nessuno tranne quelli della Valve, della Microsoft e della ATI.



aggiungi anche quelli della ID; le FX hanno problemi legati all'architettura (che adesso è troppo lungo spiegare, ma riassunti in poche parole sono dipendenti dai registri temporanei e dall'architetture delle ALU nelle pipeline di rendering), non solo problemi di compatibilità con il compilatore HLSL. Questi problemi fanno si che debbano ricorrere all'utilizzo di FP16 (al posto dell'FP32) e di instruzioni di tipo FX mischiate ad altre il FP, per poter avere una resa ottimale.
Questo non vuol dire che non sono in grado di far girare giochi DX9; semplicemente li fanno girare con framerate bassi (a meno che non si usino path specifiche che abbassino l'FP precision e sostiuiscano PS2.0 con PS1.4, 1.3 e 1.1, come fanno la mixed path di HL2 e la path NV30 di Doom3 per l'OpenGL)

CYRANO
06-10-2003, 11:58
Originariamente inviato da checo
assolutamente no, almeno non coi detonator del tempo


Io l'ho usato eccome il vibrant con la Gf2mx ...

mi ricordo che ne discutevo col carna in icq al tempo :D





Ciaozzz

sslazio
06-10-2003, 12:10
Originariamente inviato da CS25
E' una reazione "normale" ai prodotti precedenti (lo xabre...), cosi' come molti con la stessa sfera di cristallo danno per spacciato pure l'NV40 :)
Io mi siedo sulla riva del fiume ed attendo :)

confermo :)

REPSOL
06-10-2003, 12:15
Originariamente inviato da checo
la gefore2 mx era una scheda di facia bassa e andava benone.
certo a 32 bit soffriva più della controparte radeon, però il suo lavoro lo faceva

Mi ricordo poco dopo il geffo 2 mx uscì il radeon VE ci stà? E mi ricordo anche che rispetto alla geffo 2 mx era un obrobrio di scheda :(

Cmq alla geffo 2 tolsi tutti i filtri passabasso e vi assicuro che la qualità era molto simile se non uguale alla rad8500 che comprai subito dopo :D

Ciaoz

sslazio
06-10-2003, 12:17
Originariamente inviato da yossarian
risposta sbagliata; sono molto pochi; quanti sono quelli a conoscenza di queste grane della serie FX? solo quelli che frequentano i forum o leggono recensioni on line (cioè una percentuale minima) e, di questi, non tutti, mi pare abbiano acquistato o abbiano intenzione di acquistare ATi.




aggiungi anche quelli della ID; le FX hanno problemi legati all'architettura (che adesso è troppo lungo spiegare, ma riassunti in poche parole sono dipendenti dai registri temporanei e dall'architetture delle ALU nelle pipeline di rendering), non solo problemi di compatibilità con il compilatore HLSL. Questi problemi fanno si che debbano ricorrere all'utilizzo di FP16 (al posto dell'FP32) e di instruzioni di tipo FX mischiate ad altre il FP, per poter avere una resa ottimale.
Questo non vuol dire che non sono in grado di far girare giochi DX9; semplicemente li fanno girare con framerate bassi (a meno che non si usino path specifiche che abbassino l'FP precision e sostiuiscano PS2.0 con PS1.4, 1.3 e 1.1, come fanno la mixed path di HL2 e la path NV30 di Doom3 per l'OpenGL)

non credo sia così.
Internet è ormai uno strumento di massa che hanno quasi tutti quelli che comprano un scheda video da 200 e passa euro, ergo se spendi 350€ per comprarti una scheda video nuova è perchè hai sentito dire su internet che va meglio oppure è il tuo negoziante che ti viene a dire la stessa cosa.
Se sei un negoziante accorto allo stesso tempo vorrai evitare sole e ti informe su internet per vedere qual'è l'hardware + richiesto e di certo non ti accolli un treno di 5900 se sai che potrebbero rimanerti sul groppone.
Aggiungo che a quel punto come negoziante ti comprerai un camion di 9600 e 9800 decantandone le lodi e i benefici rispetto alla controparte bacata nvidia.
Sulla questione ID non insisto sono solo rumors.
Quel che è certo è invece che doom3 girerà benissimo su schede nvidia, così sarà quindi per tutti i giochi 3d che utilizzeranno quel motore grafico per i prossimi 2-3 anni.

yossarian
06-10-2003, 12:41
Originariamente inviato da sslazio

Internet è ormai uno strumento di massa che hanno quasi tutti quelli che comprano un scheda video da 200 e passa euro, ergo se spendi 350€ per comprarti una scheda video nuova è perchè hai sentito dire su internet che va meglio oppure è il tuo negoziante che ti viene a dire la stessa cosa.
Se sei un negoziante accorto allo stesso tempo vorrai evitare sole e ti informe su internet per vedere qual'è l'hardware + richiesto e di certo non ti accolli un treno di 5900 se sai che potrebbero rimanerti sul groppone.
Aggiungo che a quel punto come negoziante ti comprerai un camion di 9600 e 9800 decantandone le lodi e i benefici rispetto alla controparte bacata nvidia.


questo in teoria; in pratica non è così. Prova a fare un giro anche tra quelli che conosci, che tu sai che hanno un pc, e chiedi loro cosa sanno di nVIDIA e HL2, per esempio; discorso analogo per i negozianti. Internet lo hanno in molti a casa ma, tranne i patiti di schede video, nessuno si prende la briga di fare una ricerca su bench e recensioni (molti non sanno neppure dell'esistenza di siti che si occupano di schede video o di HW in genere).
I problemi dei chip della serie NV3x con calcoli in FP non sono un'invenzione ma emergono da dati oggettivi (path e drivers NV che forzano FP16 e shader replacement e bench eseguiti con applicazioni utilizzanti PS2.0). I giochi attuali girano bene perchè non fanno uso di calcoli in FP (tranne qualcosa in AoD e nei bench Aquamark, HL2, e 3DMark2003, dove l'NV3x ha bisogno delle path suddette).

Originariamente inviato da sslazio
non credo sia così.
Sulla questione ID non insisto sono solo rumors.
Quel che è certo è invece che doom3 girerà benissimo su schede nvidia, così sarà quindi per tutti i giochi 3d che utilizzeranno quel motore grafico per i prossimi 2-3 anni.

La questione ID non è un rumor; Carmack ha più volte ribadito di aver dovuto adoperare per NV3x una specifica path che utilizza estensioni proprietarie nVIDIA, e forza i calcoli in FP16 e FX12 (ossia utilizza anche shader DX8 e DX8.1) al posto dello standard ARB2. Utilizzando le specifiche standard l'NV30 faceva, a detta dello stesso Carmack, la metà degli fps dell'R300 (così come accade con HL2 in versione standard, ossia senza la path mixed mode; in HL2 c'è l'aggravante che nel bench non sono stati attivati alcuni effetti che richiedono l'utilizzo di FP24, come specifica minima, che avrebbero reso quasi nulle l'efficacia della path mixed mode).

andreamarra
06-10-2003, 12:49
Originariamente inviato da yossarian
questo in teoria; in pratica non è così. Prova a fare un giro anche tra quelli che conosci, che tu sai che hanno un pc, e chiedi loro cosa sanno di nVIDIA e HL2, per esempio; discorso analogo per i negozianti. Internet lo hanno in molti a casa ma, tranne i patiti di schede video, nessuno si prende la briga di fare una ricerca su bench e recensioni (molti non sanno neppure dell'esistenza di siti che si occupano di schede video o di HW in genere).
I problemi dei chip della serie NV3x con calcoli in FP non sono un'invenzione ma emergono da dati oggettivi (path e drivers NV che forzano FP16 e shader replacement e bench eseguiti con applicazioni utilizzanti PS2.0). I giochi attuali girano bene perchè non fanno uso di calcoli in FP (tranne qualcosa in AoD e nei bench Aquamark, HL2, e 3DMark2003, dove l'NV3x ha bisogno delle path suddette).



La questione ID non è un rumor; Carmack ha più volte ribadito di aver dovuto adoperare per NV3x una specifica path che utilizza estensioni proprietarie nVIDIA, e forza i calcoli in FP16 e FX12 (ossia utilizza anche shader DX8 e DX8.1) al posto dello standard ARB2. Utilizzando le specifiche standard l'NV30 faceva, a detta dello stesso Carmack, la metà degli fps dell'R300 (così come accade con HL2 in versione standard, ossia senza la path mixed mode; in HL2 c'è l'aggravante che nel bench non sono stati attivati alcuni effetti che richiedono l'utilizzo di FP24, come specifica minima, che avrebbero reso quasi nulle l'efficacia della path mixed mode).

Purtroppo per l'utente medio è così.
Sono in pochi a conoscere le magagne delle schede pseudo directx-9 della nvidia.
Basta chiedere a tutti coloro che conoscete: è già tanto se sanno cosa siano le direct-x! Molti vivono nell'ignoranza più sfrenata e si fidano di quei negozianti che fanno prendere loro schede super costose... tanto è CONSIGLIATA :(

Basta farsi un giro nei negozi di computer... basta ascoltare i dialoghi tra i venditori e gli acquirenti... orribile...

-=Krynn=-
06-10-2003, 12:49
Originariamente inviato da yossarian
questo in teoria; in pratica non è così. Prova a fare un giro anche tra quelli che conosci, che tu sai che hanno un pc, e chiedi loro cosa sanno di nVIDIA e HL2, per esempio; discorso analogo per i negozianti. Internet lo hanno in molti a casa ma, tranne i patiti di schede video, nessuno si prende la briga di fare una ricerca su bench e recensioni (molti non sanno neppure dell'esistenza di siti che si occupano di schede video o di HW in genere).
I problemi dei chip della serie NV3x con calcoli in FP non sono un'invenzione ma emergono da dati oggettivi (path e drivers NV che forzano FP16 e shader replacement e bench eseguiti con applicazioni utilizzanti PS2.0). I giochi attuali girano bene perchè non fanno uso di calcoli in FP (tranne qualcosa in AoD e nei bench Aquamark, HL2, e 3DMark2003, dove l'NV3x ha bisogno delle path suddette).



La questione ID non è un rumor; Carmack ha più volte ribadito di aver dovuto adoperare per NV3x una specifica path che utilizza estensioni proprietarie nVIDIA, e forza i calcoli in FP16 e FX12 (ossia utilizza anche shader DX8 e DX8.1) al posto dello standard ARB2. Utilizzando le specifiche standard l'NV30 faceva, a detta dello stesso Carmack, la metà degli fps dell'R300 (così come accade con HL2 in versione standard, ossia senza la path mixed mode; in HL2 c'è l'aggravante che nel bench non sono stati attivati alcuni effetti che richiedono l'utilizzo di FP24, come specifica minima, che avrebbero reso quasi nulle l'efficacia della path mixed mode).


concordo

andreamarra
06-10-2003, 12:54
Originariamente inviato da -=Krynn=-
concordo

E con me no? :(

checo
06-10-2003, 13:07
Originariamente inviato da halduemilauno
condivido. non mi vedi sono al tuo fianco.

;)

ci sono anche io, birra o vino?

-=Krynn=-
06-10-2003, 13:44
Originariamente inviato da andreamarra
E con me no? :(


con te no che sei brutto:O


no, concordo anche con te, ma ho solo preso l'ultimo post^^

sslazio
06-10-2003, 14:06
Originariamente inviato da yossarian
questo in teoria; in pratica non è così. Prova a fare un giro anche tra quelli che conosci, che tu sai che hanno un pc, e chiedi loro cosa sanno di nVIDIA e HL2, per esempio; discorso analogo per i negozianti. Internet lo hanno in molti a casa ma, tranne i patiti di schede video, nessuno si prende la briga di fare una ricerca su bench e recensioni (molti non sanno neppure dell'esistenza di siti che si occupano di schede video o di HW in genere).
I problemi dei chip della serie NV3x con calcoli in FP non sono un'invenzione ma emergono da dati oggettivi (path e drivers NV che forzano FP16 e shader replacement e bench eseguiti con applicazioni utilizzanti PS2.0). I giochi attuali girano bene perchè non fanno uso di calcoli in FP (tranne qualcosa in AoD e nei bench Aquamark, HL2, e 3DMark2003, dove l'NV3x ha bisogno delle path suddette).

Io credo che chi spende tanti soldi per una scheda video lo fa dopo aver saputo da qualcuno (riviste informatica, siti internet, amici) che è la migliore, altrimenti non prende la paghetta di natale per comprarsi una scheda video da quasi 400€.
E poi la maggior parte di quelli che comprano schede video senza intendersi dell'argomento in maniera inesperta non va di certo a comprarsi una 5900Ultra o una Radeon 9800Pro (e spende cifre vicino al 100000 di vecchie lire), probabilmente comprerà una scheda Geppo4 MX, 4200 o aTI 9600.


La questione ID non è un rumor; Carmack ha più volte ribadito di aver dovuto adoperare per NV3x una specifica path che utilizza estensioni proprietarie nVIDIA, e forza i calcoli in FP16 e FX12 (ossia utilizza anche shader DX8 e DX8.1) al posto dello standard ARB2. Utilizzando le specifiche standard l'NV30 faceva, a detta dello stesso Carmack, la metà degli fps dell'R300 (così come accade con HL2 in versione standard, ossia senza la path mixed mode; in HL2 c'è l'aggravante che nel bench non sono stati attivati alcuni effetti che richiedono l'utilizzo di FP24, come specifica minima, che avrebbero reso quasi nulle l'efficacia della path mixed mode).

Ciò che dice Carmack è aria fritta, ogni giorno ne dice una nuova, ciò che conta sono i fatti e da quel che si è visto è sufficente una Geppo 1 per far girare doom3 al minimo ovviamente, non credo che farà molto schifo agli utenti nvidia e ati questa cosa e non credo nemmeno che tutti i possessori di ATI giocheranno ad HL felice di vedere il frame rate crollare con l'attuale generazione di schede che per quanto ottime non sono certe ottimali per un gioco full dx9.

yossarian
06-10-2003, 14:24
Originariamente inviato da sslazio
Io credo che chi spende tanti soldi per una scheda video lo fa dopo aver saputo da qualcuno (riviste informatica, siti internet, amici) che è la migliore, altrimenti non prende la paghetta di natale per comprarsi una scheda video da quasi 400€.
E poi la maggior parte di quelli che comprano schede video senza intendersi dell'argomento in maniera inesperta non va di certo a comprarsi una 5900Ultra o una Radeon 9800Pro (e spende cifre vicino al 100000 di vecchie lire), probabilmente comprerà una scheda Geppo4 MX, 4200 o aTI 9600.





Infatti non sono molti a comprare 9800 o 5900 e nVIDIA non fallirà di certo per i problemi che sta avendo con la serie FX.
Il fatto è che la 5600 e la 5200 condividono architettura e magagne con le sorelle maggiori e di quelle se ne vendono comunque tante lo stesso.

Originariamente inviato da sslazio

Ciò che dice Carmack è aria fritta, ogni giorno ne dice una nuova, ciò che conta sono i fatti e da quel che si è visto è sufficente una Geppo 1 per far girare doom3 al minimo ovviamente, non credo che farà molto schifo agli utenti nvidia e ati questa cosa e non credo nemmeno che tutti i possessori di ATI giocheranno ad HL felice di vedere il frame rate crollare con l'attuale generazione di schede che per quanto ottime non sono certe ottimali per un gioco full dx9.

L'aria fritta di Carmack (come pure quella di Newell) si basa non sui bench, ma su considerazioni fatte sull'architettura; fa riferimento a cose che, di certo, nVIDIA non va in giro a raccontare agli utenti o ai redattori delle riviste o ai negozianti. Ti faccio notare che, oltre che uno dei più grandi sviluppatori di videogame, Carmack fa parte anche dell'OPenGL Board, quindi conosce molto bene le proposte fatte da nVIDIA e ATi (che fanno parte dello stesso organo, tra l'altro), riguardo alle estensioni proprietarie; pur non essendo un tecnico HW, con le sue conoscenze, basandosi semplicemente sulla proposta o l'utilizzo di estensioni proprietarie, è in grado di capire perfettamente i limiti dell'una o dell'altra architettura. Se alcune cose non le dice esplicitamente è solo perchè non può farlo.

andreamarra
06-10-2003, 14:32
Originariamente inviato da -=Krynn=-
con te no che sei brutto:O


no, concordo anche con te, ma ho solo preso l'ultimo post^^

Guarda che ho un certo charme... :flower:



:D

dataman
06-10-2003, 15:03
Io ho deciso che dopo due anni di frenesia personale 3d, mi sono rotto i maroni della corsa al massacro sulle schede video e non compro più un kaz, almeno finchè non aggiornerò tutto il PC.

Va a finire che si spendono centinaia di € per features fantomatiche, per giochi il cui hype è indirettamente proporzionale alla qualità finale del prodotto. Io ci sono cascato per U2 e mi sono preso una 9700 pro (ne sono felicissimo per carità, ma se alla fine U2 è un discreto gioco e invece passo la maggior parte del tempo giocando a Mohaa e NOLF2, forse qualche calcolo sbagliato l'ho fatto anch'io).

Insomma, forse è ora di piantarla di foraggiare 'sti tizi di nVidia, ATI, M$, etc.. che ci spremono come limoni per farci comprare schede che promettono features rutilanti e poi scopri che non sono altro che re-brand di vecchi chip, modificati e overclokkati (penso alle GF4 Mx 440 e simili, come alle 9000 e 9100 di ATI).

Ati non era così, ma ha iniziato a seguire la strada di nVidia.

Eppoi, i vari xabre, Kyro, S3, ma pensate davvero che possano contare qualcosa ? Non si entra nella sacra triade (nVidia, ATI e M$). Hanno di fatto il monopolio dei videogames per PC intesi in senso lato.

Forse il mondo delle console è un po' più aperto (non per molto temo).

Per il momento mi tengo la mia 9700 pro sul mio PC e la mia Ti4400 sul PC di mia moglie, che per Mohaa, U2, Splinter Cell, NOLF2, CS e compagnia bella bastano e avanzano. :)

Ciaozz...

sslazio
06-10-2003, 15:04
Originariamente inviato da yossarian
Infatti non sono molti a comprare 9800 o 5900 e nVIDIA non fallirà di certo per i problemi che sta avendo con la serie FX.
Il fatto è che la 5600 e la 5200 condividono architettura e magagne con le sorelle maggiori e di quelle se ne vendono comunque tante lo stesso.


Chi acquista una 5600 o una 5200 non può di certo pretendere di giocare in maniera dignitosa a HL, così come non può pretenderlo chi comprerà una 9600 o una 9200.
La 9600Pro o la 9500Pro possono essere considerati ottimi compromessi per avere discrete performance a prezzi interessanti, il fatto è che le prestazioni saranno appena discrete tutto qui.
Diceva il mio professore di diritto costituzionale in latino maccheronico che però rende bene l'idea: Poco Pagazio, Poco Pittazio.
Magari però chi comprerà ora una 5600Ultra, riuscirà a giocare a tutto senza problemi doom3 compreso HL a parte.


L'aria fritta di Carmack (come pure quella di Newell) si basa non sui bench, ma su considerazioni fatte sull'architettura; fa riferimento a cose che, di certo, nVIDIA non va in giro a raccontare agli utenti o ai redattori delle riviste o ai negozianti. Ti faccio notare che, oltre che uno dei più grandi sviluppatori di videogame, Carmack fa parte anche dell'OPenGL Board, quindi conosce molto bene le proposte fatte da nVIDIA e ATi (che fanno parte dello stesso organo, tra l'altro), riguardo alle estensioni proprietarie; pur non essendo un tecnico HW, con le sue conoscenze, basandosi semplicemente sulla proposta o l'utilizzo di estensioni proprietarie, è in grado di capire perfettamente i limiti dell'una o dell'altra architettura. Se alcune cose non le dice esplicitamente è solo perchè non può farlo.

Ti do pienamente ragione.
Aggiungo solo che è ancora tutta nebbia, non vedo riscontri effettivi in quel che gira oggi.
In futuro quando potrò toccare con mani i 9fps che dicono fare la 5900 con HL allora mi incazzero come una iena, ora sono entusiasta di una scheda che spingi in maniera eccellente pienamente compabile e pagata relativamente poco rispetto a quello che girava sul mercato.

NoX83
06-10-2003, 15:06
Bè che con una 9600PRO uno debba ancora preoccuparsi di avere problemi per giocare a HL lo reputo un po' troppo da dire...


TEST CON HL2:
http://techreport.com/etc/2003q3/valve/Image7.jpg


E' più che accettabile.

sslazio
06-10-2003, 15:54
Originariamente inviato da NoX83
Bè che con una 9600PRO uno debba ancora preoccuparsi di avere problemi per giocare a HL lo reputo un po' troppo da dire...


TEST CON HL2:
http://techreport.com/etc/2003q3/valve/Image7.jpg


E' più che accettabile.

vedremo.
Ci sono mappe anche in Unreal che differisco della metà nei FPS, inoltre una cosa è il frame rate massimo un'altro quello medio.
Ripeto non possiamo basarci su ste boiate che girano al momento, bisogna aspettare per forza i risultati con il gioco vero e proprio.

Grezzo
06-10-2003, 16:14
Originariamente inviato da TripleX
meglio puntare alla 5800ultra e accusarli della perdita dell'udito;)

fx flow rulez:oink::D

Miticooo :D

REPSOL
06-10-2003, 16:25
Originariamente inviato da NoX83
Bè che con una 9600PRO uno debba ancora preoccuparsi di avere problemi per giocare a HL lo reputo un po' troppo da dire...


TEST CON HL2:
http://techreport.com/etc/2003q3/valve/Image7.jpg


E' più che accettabile.


Non abbiamo ancora visto una scena di quel benchmark... figuriamoci se si può dire che il gioco girerà normalmente fluido.... poi se non sbaglio quei risultati sono a 1024x768 senza filtri.. quindi... :D

ballero
06-10-2003, 18:06
Originariamente inviato da NoX83
Bè che con una 9600PRO uno debba ancora preoccuparsi di avere problemi per giocare a HL lo reputo un po' troppo da dire...


TEST CON HL2:
http://techreport.com/etc/2003q3/valve/Image7.jpg


E' più che accettabile.


Test eseguito su un Pc di fascia alta (che non tutti hanno) a 1024x768, senza filtri e con alcuni effetti dx9 disattivati.;)

REPSOL
06-10-2003, 19:59
Originariamente inviato da ballero
Test eseguito su un Pc di fascia alta (che non tutti hanno) a 1024x768, senza filtri e con alcuni effetti dx9 disattivati.;)


Io spero che debbano ancora ottimizzare bene, o per lo meno che lo faccia quello che ha guappato i sorgenti di hl2 :D :D :D

Ciaoz

NoX83
07-10-2003, 12:19
Ma allora un tipo per giocare a HL2 oltre magari a doverselo comprare deve spendersi pure 350 euro di skeda video? Bah!

david-1
03-12-2003, 17:44
tutto stò clamore perchè nVidia è stata escluda dallo sviluppo delle DX10.......
ad un mese di distanza nessuno ne parla più......
come stanno le cose????

aventrax
03-12-2003, 18:07
Originariamente inviato da Legolas84
E ora nvidia comincia a pagarle tutte...:)

E questo mi fa veramente felice.... spero che nvidia esca di scena piano piano come piano piano entri la XGI...

E poi via al duopolio Ati XGI....

Io vorrei proprio che succeddesse questo... forse perchè la cosa che mi ha dato più fastidio è stato essere preso per il culo.... ho passato Dicembre e Gennaio a pensare se prendere una 9700Pro o aspettare un NV30.... ringrazio di aver preso la 9700 per fortuna...

:rolleyes:


Bravo, veramente un bel discorso.
Chiaro che nvidia è l'unica azienda "meschina", ati e sopratutto microsoft stessa (rotfl) sono delle signore e non prendono mai per il culo nessuno....:mc: :mc: :sofico:

Legolas84
03-12-2003, 18:15
Originariamente inviato da aventrax
Bravo, veramente un bel discorso.
Chiaro che nvidia è l'unica azienda "meschina", ati e sopratutto microsoft stessa (rotfl) sono delle signore e non prendono mai per il culo nessuno....:mc: :mc: :sofico:
ù

Di micorsoft io non ne ho parlato....;)

Ati il cliente non lo prende per il culo spudoratamente come fa nvidia..... ;)

Bisogna essere obiettivi e non tifosi.... ;)

seccio
03-12-2003, 18:50
piano piano mi leggerò tutto il thread...nn so se è già saltato fuori , ma questa notizia nn ha fatto riflettere nessuno?

tempo fa per nVidia si vociferava un abbandono del campo schede video per concentrarsi esclusivamente sulla produzione di chipset....

che sia questo una conferma!?

cmq che i deto modificano le DX9....è veramente clamoroso e squallido....:muro:

@Crikkkk-19
03-12-2003, 19:07
Originariamente inviato da Legolas84
Ti capisco... ho dovuto passare dalla voodoo 3000 alla GeForce 2 GTS perchè da me le Voodoo 5 non sono mai arrivate...:cry:

Dopo la Geforce 2 GTS ho preso una geForce 4 ti 4600 e poi indeciso tra NV30 e 9700pro ho poi preso quest'ultima...

Comunque niente è come era 3dfx...;)

già.. quante soddisfazioni!!! la 3dfx era tutt'altra cosa!!
Maledetto me che ho venduta la suddeta scheda!
:rolleyes:

Legolas84
03-12-2003, 19:59
Originariamente inviato da @Crikkkk-19
già.. quante soddisfazioni!!! la 3dfx era tutt'altra cosa!!
Maledetto me che ho venduta la suddeta scheda!
:rolleyes:


Proprio te parli... che sei stato sotto i riflettori più di una volta nella guerra nvidia - Ati..... :muro:

Comunque la tua affermazione indica che non hai capito nulla di quello che volevo dire oppure hai postato apposta per accendere flames..... scegli tu... ;)

=>TaroKSoft<=
03-12-2003, 20:23
Originariamente inviato da Legolas84
E ora nvidia comincia a pagarle tutte...:)

E questo mi fa veramente felice.... spero che nvidia esca di scena piano piano come piano piano entri la XGI...

E poi via al duopolio Ati XGI....

Io vorrei proprio che succeddesse questo... forse perchè la cosa che mi ha dato più fastidio è stato essere preso per il culo.... ho passato Dicembre e Gennaio a pensare se prendere una 9700Pro o aspettare un NV30.... ringrazio di aver preso la 9700 per fortuna...

:rolleyes:

Sai che sono caxxi se xgi fallisce l'obiettivo e rimane solo ati sul mercato?!? Un monopolio è la cosa peggiore per il mercato, ne risulterebbe un aumento dei prezzi e una stagnazione delle novità.... Spero che torni in qualche modo nel progetto dx10!!!!

Ditemi ancora..... CHI c'è nel progetto dx10?!?!?
Solo ati?!?!? Compreremo in futuro SOLO schede ati per giocare games dx10?!?

Spero che nVidia non fallisca..... Insomma quante soddisfazioni mi sono tolto con la gf3?!? Se dovesse fallire nVidia ci rimarrei malissimo!!!!!

Come ci sono rimasto malissimo per 3dfx, che scena non faceva giocare a quake a 60fps con una Voodoo1 da 4 Mb?!?!?!?

Edit: avevo segato tutti gli underlined!!! :lamer:

Legolas84
03-12-2003, 20:30
Originariamente inviato da =>TaroKSoft<=
Sai che sono caxxi se xgi fallisce l'obiettivo e rimane solo ati sul mercato?!? Un monopolio è la cosa peggiore per il mercato, ne risulterebbe un aumento dei prezzi e una stagnazione delle novità.... Spero che torni in qualche modo nel progetto dx10!!!!

Ditemi ancora..... [u]CHI[\u] c'è nel progetto dx10?!?!?
Solo ati?!?!? Compreremo in futuro [u]SOLO[\u] schede ati per giocare games dx10?!?

Spero che nVidia non fallisca..... Insomma quante soddisfazioni mi sono tolto con la gf3?!? Se dovesse fallire nVidia ci rimarrei malissimo!!!!!

Come ci sono rimasto malissimo per 3dfx, che scena non faceva giocare a quake a 60fps con una Voodoo1 da 4 Mb?!?!?!?


Lo so che il monopolio da solo cattivi frutti e non lo voglio assolutamente....

Infatti non ho detto: "Spero che rimanga solo ATI"....

Ma sinceramente... non siete stufi della politica di nvidia da un anno a questa parte? :confused:

Io ho avuto sia la Geforce2 che la Geforce4. Ma il modo in cui nvidia ha provato a mascherare tutti i difetti di NV3x.... ecco, questo mi ha fatto smettere di avere fiducia in lei....

seccio
03-12-2003, 23:48
Originariamente inviato da seccio

tempo fa per nVidia si vociferava un abbandono del campo schede video per concentrarsi esclusivamente sulla produzione di chipset....

che sia questo una conferma!?



mi autoquoto...perchè ancora nn mi avete preso in considerazione.

FENZ
04-12-2003, 00:04
Originariamente inviato da seccio
piano piano mi leggerò tutto il thread...nn so se è già saltato fuori , ma questa notizia nn ha fatto riflettere nessuno?

tempo fa per nVidia si vociferava un abbandono del campo schede video per concentrarsi esclusivamente sulla produzione di chipset....

che sia questo una conferma!?

cmq che i deto modificano le DX9....è veramente clamoroso e squallido....:muro:
già, secondo me è meglio che si mettono a fare i chipset.
Anche se non sanno fare nemmeno quelli dato che l'Athlon64
è stato realizzato non solo per i 64bit ma per implementare
parte delle funzioni del chipset che erano mal gestite da questo
compromettendo ampliamente le prestazioni :rolleyes:
(ma questo è un problema di tutte le piattaforme AMD).

nVidia ha dato un colpo basso creando l'illusione del supporto dx9
(come le gf4mx che girano ancora con le dx7:nono: :nono: )
e ciò è imperdonabile (comprese le patch per i mark video :muro: )

=>TaroKSoft<=
04-12-2003, 00:05
Originariamente inviato da seccio
mi autoquoto...perchè ancora nn mi avete preso in considerazione.


MAh, tu dici che si è tagliata le palle da sola!!!

Al giorno d'oggi credo che sia ancora Lei ad avere la fetta più grossa di mercato vga.....

Non credo proprio!!!

Perchè andare a perdere in immagine facendosi kikkare dallo sviluppo di dX10?!?!?

Quanto spero che sia una cantonata 'sta notizia.....

OverK
04-12-2003, 00:06
Originariamente inviato da seccio
mi autoquoto...perchè ancora nn mi avete preso in considerazione.

Non credo proprio.... se vuoi uscire di scena lo comunichi e basta... non c'e bisogno di perdere la faccia per l'ennesima volta , tra barare e un comunicato ufficiale c'e differenza
:D

FENZ
04-12-2003, 00:13
Originariamente inviato da OverK
Non credo proprio.... se vuoi uscire di scena lo comunichi e basta... non c'e bisogno di perdere la faccia per l'ennesima volta , tra barare e un comunicato ufficiale c'e differenza
:D
diciamo che nVidia cerca di :mc: in tutti i campi,
sia chipset che vpu :rolleyes:
ma ho letto che nVidia e intel in realtà sono la stessa cosa (o quasi), possibile?
alquanto strano:confused:

seccio
04-12-2003, 00:17
ragazzi, io sono d'accordo...ma nVidia ne ha eccome di soldi in tasca. se nn ce l'aveva , il tonfo dell'NV3x l'avrebbe pagato a caro prezzo.

Il fatto è che nVidia sta investendo moltissimo sull nForce2....e nForce3.....sui chip per piattaforme XBOX.....per i dindi di una certa microsoft......che paga quei chipset....

il mercato di nVidia nn dipende assolutamente dal settore video.hanno altri sbocchi, basta ricordare che l'nForce2 ha disintegrato le concorrenti sul mercato....anche il settore audio....per essere un'integrata il soundstorm è ottimo....molti miei amici hanno venduto !live...per tenersi il soundstorm...chissà se magari si buttano anche su un mercato audio.....(ipotesi molto azzardata indendiamoci)....ma avrebbero anche detto che nn sarebbero sparite dal mercato video....ma che lo avrebbero abbandonato per favorire un settore più professionale....(un po' come MATROX)...

insomma.....cambiare progetti quando si è in corsa è sempre possibile. se nVidia ha capito che questo mercato nn fa per lei....lo abbandona.....innanzittutto iniziando dallo sviluppo delle nuove API.

OverK
04-12-2003, 01:10
Originariamente inviato da seccio
ragazzi, io sono d'accordo...ma nVidia ne ha eccome di soldi in tasca. se nn ce l'aveva , il tonfo dell'NV3x l'avrebbe pagato a caro prezzo.

Il fatto è che nVidia sta investendo moltissimo sull nForce2....e nForce3.....sui chip per piattaforme XBOX.....per i dindi di una certa microsoft......che paga quei chipset....

il mercato di nVidia nn dipende assolutamente dal settore video.hanno altri sbocchi, basta ricordare che l'nForce2 ha disintegrato le concorrenti sul mercato....anche il settore audio....per essere un'integrata il soundstorm è ottimo....molti miei amici hanno venduto !live...per tenersi il soundstorm...chissà se magari si buttano anche su un mercato audio.....(ipotesi molto azzardata indendiamoci)....ma avrebbero anche detto che nn sarebbero sparite dal mercato video....ma che lo avrebbero abbandonato per favorire un settore più professionale....(un po' come MATROX)...

insomma.....cambiare progetti quando si è in corsa è sempre possibile. se nVidia ha capito che questo mercato nn fa per lei....lo abbandona.....innanzittutto iniziando dallo sviluppo delle nuove API.

Seccio io non la farei cosi semplice la storia ...che nvidea abbia un sacco di grana puo anche essere ... c'e da tenere presente che i soldi veri non arrivano dai prodotti di fascia alta ;)

Nforce2 e gran bel chipset per appassionati e smanettoni ( piccolissima parte del mercato ) per il resto del mercato e una scheda che costa troppo e non gliene frega niente se si overclokka a 250 mhz ,senza contare la concorrenza ! via e tutt'altro che sconfitta ! ha sfornato un chipset completo e veloce che costa meno... questo gioca a suo favore perche prende una fetta di mercato piu grande = piu soldi , nvidea ha "vinto".
Per adesso nvidea sembra di tutto tranne una società che si vuole spostare su un mercato piu professionale ( almeno per sua scelta ) , ha barato ...questo succede quando non si riesce a competere con la concorrenza....quindi la voglia di prevalere sul mercato delle schede da gioco c'e , se veramente voleva spostarsi si sarebbe risparmiata queste figuracce.

Io cmq prendo con le pinze questa notizia e aspetto un comunicato ufficiale... sempre se ci sarà :)

seccio
04-12-2003, 01:22
Originariamente inviato da OverK

Per adesso nvidea sembra di tutto tranne una società che si vuole spostare su un mercato piu professionale ( almeno per sua scelta ) , ha barato ...questo succede quando non si riesce a competere con la concorrenza....quindi la voglia di prevalere sul mercato delle schede da gioco c'e , se veramente voleva spostarsi si sarebbe risparmiata queste figuracce.

Io cmq prendo con le pinze questa notizia e aspetto un comunicato ufficiale... sempre se ci sarà :)

del comunicato , beh sono d'accordo.
ma....in che senso ha barato? ha fatto un chipset nato male, ci mette le pezze con i driver, ci fa mettere le pezze da microsoft....ma ragazzi ma che volgiamo di più!? i danni creati dalla stessa nVidia, si ritorgono contro gli utenti finali...ma queste "pezze" nn servono ad altro che proteggere i compratori finali.
Ok che nn sia da esempio...ma dire che bara è troppo.

E cmq, hai pensato che la voglia di competere magari c'era prima? ma adesso appunto perchè nn regge la concorrenza si ritira..nn ci vedo niente di male. anche matrox , se ce la facesse a stare al passo con questi mostri si sarebbe già buttata in questo mercato. invece ne è rimasta fuori. e adesso? se qualcuno ne viene fuori sta..."barando"...maddai.....

OverK
04-12-2003, 02:21
Seccio sempre se questa notizia e vero e non abbiamo capito roma per toma... nvidia con i nuovi driver ha modificato le directx per aumentare le prestazione della fx , cosa che non doveva accadere per due motivi

1- le directx non si toccano senza il permesso di microsoft
2- nvidea deve fare una scheda che viaggia basandosi sulle directx( come ha fatto ati )...non deve modificare le directx per far viaggiare la sua scheda .

Ati con le sue schede ha rispettato lo standard , Nvidea no...questo e barare :)

Una sua ipotetica uscita di scena non e voluta da lei...e stata ESCLUSA da microsoft , e il titolo di questa discussione :)

Redvex
04-12-2003, 07:56
1) Si chiama Nvidia e non Nvidea :D
2) Le directx le sta modificando la microsoft (le 9.1?) x xmettere a nvidia di recuperare terreno su ps e vs.
3) non è che le abbia modificate anche xkè se l'avesse fatto sarebbe + competitiva non credi?

Io direi che è + Ati ad aver fatto il capolavoro che Nvidia lo sbaglio!

Detto questo, secondo me i tecnici Nvidia non sono diventati brocchi tutto ad un tratto, tra ritardi e chip non proprio competitivi, (seppure sempre buoni).
Se ci pensate è da quando Nvidia ha cominciato a produrre chipset e chip x Xbox che ha cominciato a perdere colpi, anche se è un colosso un prezzo lo deve sempre pur pagare no? e io credo che dopo l'abbandono del supporto a Xbox2 (spero ke non darà supporto ad altre console) avrà + energie da investire nel campo delle Vga. E poi chi ha sbagliato già una volta non si può xmette di ripetere lo stesso errore, e qualcosa avrà imparato.
Insomma le premesse x un chip davvero ottimo sembrano esserci.
Fermo restando che la fx 5950 è un bella bestiolina ugualmente

david-1
04-12-2003, 08:20
Originariamente inviato da Redvex
1) Si chiama Nvidia e non Nvidea :D
2) Le directx le sta modificando la microsoft (le 9.1?) x xmettere a nvidia di recuperare terreno su ps e vs.
3) non è che le abbia modificate anche xkè se l'avesse fatto sarebbe + competitiva non credi?

Io direi che è + Ati ad aver fatto il capolavoro che Nvidia lo sbaglio!

Detto questo, secondo me i tecnici Nvidia non sono diventati brocchi tutto ad un tratto, tra ritardi e chip non proprio competitivi, (seppure sempre buoni).
Se ci pensate è da quando Nvidia ha cominciato a produrre chipset e chip x Xbox che ha cominciato a perdere colpi, anche se è un colosso un prezzo lo deve sempre pur pagare no? e io credo che dopo l'abbandono del supporto a Xbox2 (spero ke non darà supporto ad altre console) avrà + energie da investire nel campo delle Vga. E poi chi ha sbagliato già una volta non si può xmette di ripetere lo stesso errore, e qualcosa avrà imparato.
Insomma le premesse x un chip davvero ottimo sembrano esserci.
Fermo restando che la fx 5950 è un bella bestiolina ugualmente
Ti quoto per la tua riflessione molto bilanciata e RIFLETTUTA.
Ma tutti credono davvero che nVidia verrà esclusa dalle dx10?
Credete che Microsoft ne avrebbe vantaggi?
Credete che Microsoft non consideri all'altezza nVidia? E voi lo credete davvero?
Ati ha fatto un capolavoro, nVidia un errore, la differenza quindi è sballata.
Figurati se nVidia molla le vga....... :rolleyes:

seccio
04-12-2003, 09:12
Originariamente inviato da OverK
Seccio sempre se questa notizia e vero e non abbiamo capito roma per toma... nvidia con i nuovi driver ha modificato le directx per aumentare le prestazione della fx , cosa che non doveva accadere per due motivi

1- le directx non si toccano senza il permesso di microsoft
2- nvidea deve fare una scheda che viaggia basandosi sulle directx( come ha fatto ati )...non deve modificare le directx per far viaggiare la sua scheda .

Ati con le sue schede ha rispettato lo standard , Nvidea no...questo e barare :)

Una sua ipotetica uscita di scena non e voluta da lei...e stata ESCLUSA da microsoft , e il titolo di questa discussione :)

vediamo, mettiamola così . te ti compri una scheda nVidia , fallata (senza che tu lo sappia) in DX9. saresti contento oppure no che tramite i driver o tramite patch vengano aggiunte pezze ? io credo di si.

Io credo che se per te barare vuol dire andare incontro agli utenti....beh allora sono completamente d'accordo con la politica di barare.
E cmq si vede che nn segui quello che ti ho detto, se fosse vero che nVidia si tira fuori dal mercato schede video e anche logico che esca di scena dalle DX. la notizia come dici te va presa con le pinze, ma va letta anche in due modi , uno come sostieni te..."Microsoft butta fuori nVidia"....l'altra "nVidia nn presente nello sviluppo delle DX10"....

ah, a che proposito buttare fuori nVidia per farle un torto!? tanto il coltello dalla parte del manico nn ce l'ha in confronto alla microsoft !? ma via...

ma mi pare che te la leggi solo in un modo..

OverK
05-12-2003, 00:22
Originariamente inviato da seccio
vediamo, mettiamola così . te ti compri una scheda nVidia , fallata (senza che tu lo sappia) in DX9. saresti contento oppure no che tramite i driver o tramite patch vengano aggiunte pezze ? io credo di si.

Io credo che se per te barare vuol dire andare incontro agli utenti....beh allora sono completamente d'accordo con la politica di barare.
E cmq si vede che nn segui quello che ti ho detto, se fosse vero che nVidia si tira fuori dal mercato schede video e anche logico che esca di scena dalle DX. la notizia come dici te va presa con le pinze, ma va letta anche in due modi , uno come sostieni te..."Microsoft butta fuori nVidia"....l'altra "nVidia nn presente nello sviluppo delle DX10"....

ah, a che proposito buttare fuori nVidia per farle un torto!? tanto il coltello dalla parte del manico nn ce l'ha in confronto alla microsoft !? ma via...

ma mi pare che te la leggi solo in un modo..

Definizione di escludere

v. tr. [pass. rem. io escluSi, tu escludésti ecc. ; part. pass. escluSo]
1 chiudere fuori; impedire l'ingresso in un luogo: il pubblico fu escluso dall'aula
2 lasciare fuori, non accogliere, non ammettere: escludere da un privilegio; escludere un candidato da un concorso
3 ritenere non vero, impossibile; scartare: escludere un'ipotesi; escludo che sia lui il colpevole ' non escludere, ritenere possibile: non escludo che tu possa aver ragione
4 rendere impossibile, impedire: questa proposta esclude l'altra; questa siepe, che da tanta parte / dell'ultimo orizzonte il guardo esclude (LEOPARDI L'infinito 2-3) ||| escludersi v. rifl. isolarsi, non prendere parte a qualcosa: escludersi dal consorzio civile ||| v. rifl. rec. eliminarsi, elidersi reciprocamente: i contrari si escludono.

C'e poco da interpretare , mi sembra piu che chiaro
:)

seccio
05-12-2003, 00:25
Originariamente inviato da OverK
Definizione di escludere

v. tr. [pass. rem. io escluSi, tu escludésti ecc. ; part. pass. escluSo]
1 chiudere fuori; impedire l'ingresso in un luogo: il pubblico fu escluso dall'aula
2 lasciare fuori, non accogliere, non ammettere: escludere da un privilegio; escludere un candidato da un concorso
3 ritenere non vero, impossibile; scartare: escludere un'ipotesi; escludo che sia lui il colpevole ' non escludere, ritenere possibile: non escludo che tu possa aver ragione
4 rendere impossibile, impedire: questa proposta esclude l'altra; questa siepe, che da tanta parte / dell'ultimo orizzonte il guardo esclude (LEOPARDI L'infinito 2-3) ||| escludersi v. rifl. isolarsi, non prendere parte a qualcosa: escludersi dal consorzio civile ||| v. rifl. rec. eliminarsi, elidersi reciprocamente: i contrari si escludono.

C'e poco da interpretare , mi sembra piu che chiaro
:)

grazie per la lezione, nn sapevo di essere analfabeta, eppure ogni tanto questo forum me lo ricorda.

in italiano si . sono d'accordo. ma nel campo giornalistico sai bene come possono essere travisate le cose o fatte apparire come altre.

OverK
05-12-2003, 00:49
Originariamente inviato da seccio
grazie per la lezione, nn sapevo di essere analfabeta, eppure ogni tanto questo forum me lo ricorda.

in italiano si . sono d'accordo. ma nel campo giornalistico sai bene come possono essere travisate le cose o fatte apparire come altre.

Non intendevo darti dell'analfabeta, non capisco per quale motivo devi fare perforza fare giri strani , nvidea a fatto qualcosa che a microsoft non piace ( violare un suo programma ) e di conseguenza l'ha esclusa :)
Nvidea ha il coltello dalla parte del manico ? su questo non ci mettere la mano sul fuoco...forse un anno fa l'avrei fatto oggi no :) , dimentichi chi ha fatto la gpu della tua scheda ;) i produttori che hanno scelto ati ( molti lasciando nvidea )non si calcolano piu , ati e una realtà piu forte che mai :) la situazione a cambiata e anche tanto ! basta farsi un giro nel web...guarda i listini, hanno schede ati in tutte le salse e modelli e solo una piccola parte sono schede nvidea.

seccio
05-12-2003, 01:15
esistono ancora le PS1 figurati se nn esisteranno per parecchio ancora le XBOX con chip nVidia.

perchè devo per forza fare giri strani?
1- la notizia è vecchia di 2 mesi. se c'era qualcosa di grosso era già venuto fuori . DAVVERO.
2- credo che se fosse vero ,e contando le intenzioni di nVidia di tirarsi fuori dal mercato schede video(come era anche stato detto), nVidia abbia di proposito creato quei driver per andare incontro agli utenti. come del resto presto farà anche microsoft con le nuove DX. e su questo , cmq nn ci vedo niente di male nei confronti dell'utente finale.
3- il coltello dalla parte del manico mi riferivo nei confronti di microsoft , visto che la rifornisce di chip, ah...e cmq nVidia ancora ha la più grossa fetta di mercato.
4- nn baso i miei ragionamenti secondo la scheda che ho nel case.
5- il ragionamento della mancanza di prodotti nVidia nei lisitni nn ti fa pensare al punto 2??...

ballero
05-12-2003, 08:00
Originariamente inviato da seccio
esistono ancora le PS1 figurati se nn esisteranno per parecchio ancora le XBOX con chip nVidia.

perchè devo per forza fare giri strani?
1- la notizia è vecchia di 2 mesi. se c'era qualcosa di grosso era già venuto fuori . DAVVERO.


La notizia si era rivelata una bùfala messa in giro da un noto simpatizzante Ati nel forum di Gearbox.
Bùfala, a mio giudizio, anche piuttosto evidente.
;)

seccio
05-12-2003, 10:32
Originariamente inviato da ballero
La notizia si era rivelata una bùfala messa in giro da un noto simpatizzante Ati nel forum di Gearbox.
Bùfala, a mio giudizio, anche piuttosto evidente.
;)

grazie per aver confermato il mio dubbio! ;)

aventrax
05-12-2003, 11:23
Originariamente inviato da Legolas84
ù

Di micorsoft io non ne ho parlato....;)

Ati il cliente non lo prende per il culo spudoratamente come fa nvidia..... ;)

Bisogna essere obiettivi e non tifosi.... ;)


Obbiettivi? Ma quale obbiettività se è diventato lo sport nazionale sputare su nv!! Per vfavore....

LukeHack
05-12-2003, 11:40
ah regà,secondo me Nvidia è sempre un gran produttore di vga,per quanto tentino di taroccare i drivers e per quanto la qualià dell'immagine sia inferiore ad altre case (Matrox e Ati certamente)...

però di qui a dire che NVidia fa schifo ce ne vuole:D
diciamo che l'unica cosa che fa schifo sono i prezzi delle vga di alto livello,messi li come si mette a 500 euro una penna biro che riporta una gran marca...è questo che dà fastidio,il fatto di lucrare sulla propria buona fama guadagnata in anni di monopolio...
ma questo è un grosso errore,infatti il target delle vga di fascia alta siamo proprio noi,gli smanettoni,utenti informatissimi ed aggiornati che non si fanno certo abbindolare dal verde(di invidia:D) marchio NVidia e da un tamarro armato che in UT2003 ne esce fuori ringhiando:rolleyes:

quindi,sicuramente ATI RULEZ,ma guai a dire "NVidia lamers" perchè rimangono,le loro schede,cmq degli ottimi prodotti

Korn
05-12-2003, 11:46
Originariamente inviato da aventrax
Obbiettivi? Ma quale obbiettività se è diventato lo sport nazionale sputare su nv!! Per vfavore....
forse perchè se lo merita...

pon 87
05-12-2003, 12:52
Originariamente inviato da Redvex
1) Si chiama Nvidia e non Nvidea :D
2) Le directx le sta modificando la microsoft (le 9.1?) x xmettere a nvidia di recuperare terreno su ps e vs.
3) non è che le abbia modificate anche xkè se l'avesse fatto sarebbe + competitiva non credi?

Io direi che è + Ati ad aver fatto il capolavoro che Nvidia lo sbaglio!

Detto questo, secondo me i tecnici Nvidia non sono diventati brocchi tutto ad un tratto, tra ritardi e chip non proprio competitivi, (seppure sempre buoni).
Se ci pensate è da quando Nvidia ha cominciato a produrre chipset e chip x Xbox che ha cominciato a perdere colpi, anche se è un colosso un prezzo lo deve sempre pur pagare no? e io credo che dopo l'abbandono del supporto a Xbox2 (spero ke non darà supporto ad altre console) avrà + energie da investire nel campo delle Vga. E poi chi ha sbagliato già una volta non si può xmette di ripetere lo stesso errore, e qualcosa avrà imparato.
Insomma le premesse x un chip davvero ottimo sembrano esserci.
Fermo restando che la fx 5950 è un bella bestiolina ugualmente
quoto alla grande
;) ;) ;) ;) ;) ;) ;) ;) ;) ;)

Legolas84
05-12-2003, 13:25
Originariamente inviato da aventrax
Obbiettivi? Ma quale obbiettività se è diventato lo sport nazionale sputare su nv!! Per vfavore....

Proprio non ci siamo.... forse tu non ti rendi bene conto di quello che ha fatto nvidia in questo ultimo anno....

Ha barato più volte al 3dmark
Ha annunciato più e più volte che NV30 sarebbe stato un mostro.

Ragazzi, capisco l'affezionarsi a un'azienda, ma accettare tutte queste cose no.... io Ho avuto una GeForce 2 GTS e una GeForce 4 Ti 4600 entrambe andavano da Dio, nvidia ha sempre fatto grandi schede, ma ste FX non seguono la buona tradizione delle vecchie, e per cercare di venderle comunque nvidia ha provato più volte a ingannare il consumatore..... se al posto di nvidia ci fosse da scrivere ATI non avrei problemi... anche perchè finchè non è uscito NV30 io ero un sostenitore di questo progetto... (chiedi a maury..... :D) Solo che non ci sto a farmi prendere per scemo da gente che in fondo vuole i miei soldi... tutto qui....

seccio
05-12-2003, 13:30
Originariamente inviato da Legolas84
Proprio non ci siamo.... forse tu non ti rendi bene conto di quello che ha fatto nvidia in questo ultimo anno....

Ha barato più volte al 3dmark
Ha annunciato più e più volte che NV30 sarebbe stato un mostro.

Ragazzi, capisco l'affezionarsi a un'azienda, ma accettare tutte queste cose no.... io Ho avuto una GeForce 2 GTS e una GeForce 4 Ti 4600 entrambe andavano da Dio, nvidia ha sempre fatto grandi schede, ma ste FX non seguono la buona tradizione delle vecchie, e per cercare di venderle comunque nvidia ha provato più volte a ingannare il consumatore..... se al posto di nvidia ci fosse da scrivere ATI non avrei problemi... anche perchè finchè non è uscito NV30 io ero un sostenitore di questo progetto... (chiedi a maury..... :D) Solo che non ci sto a farmi prendere per scemo da gente che in fondo vuole i miei soldi... tutto qui....

...nn ti piace nVidia perchè ha fatto una m€rd@ di scheda, perchè cheatta i driver, perchè abbassa la qualità d'immagine!? bene, nn la compri . che te ne frega di infamarla o di sputarci addosso !? ti pagano per farlo? nn credo..

"forse tu non ti rendi bene conto di quello che ha fatto nvidia in questo ultimo anno"
poi questa frase....manco t'avessero fatto un torto a te come persona...io me ne rendo conto che la situazione nn è come un anno fa. punto e basta, son passato ad ATi. ma la finisco qua, nn me ne frega niente di sputare addosso a nVidia, nn è affar che mi riguarda ormai.

Legolas84
05-12-2003, 13:33
Originariamente inviato da seccio
...nn ti piace nVidia perchè ha fatto una m€rd@ di scheda, perchè cheatta i driver, perchè abbassa la qualità d'immagine!? bene, nn la compri . che te ne frega di infamarla o di sputarci addosso !? ti pagano per farlo? nn credo..

"forse tu non ti rendi bene conto di quello che ha fatto nvidia in questo ultimo anno"
poi questa frase....manco t'avessero fatto un torto a te come persona...io me ne rendo conto che la situazione nn è come un anno fa. punto e basta, son passato ad ATi. ma la finisco qua, nn me ne frega niente di sputare addosso a nVidia, nn è affar che mi riguarda ormai.


Io non sputo adosso a nvidia, io riporto i fatti....
Quando le Ati andavano meno Ati non ottimizzava i driver e non abbassava la qualità....

Qui si discute di nvidia, non vedo perchè non dovrei riportare ciò che ha fatto? :confused:
Non è un forum di discussione?
Se poi riportare ciò che nvidia ha fatto significa sputargli adosso vuol dire che la situazione tanto bella non è....

Poi, se la si vuole capire bene, altrimenti amen.....

Legolas84
05-12-2003, 13:37
Originariamente inviato da seccio
...nn ti piace nVidia perchè ha fatto una m€rd@ di scheda, perchè cheatta i driver, perchè abbassa la qualità d'immagine!? bene, nn la compri . che te ne frega di infamarla o di sputarci addosso !? ti pagano per farlo? nn credo..


E poi questa frase.... ma chi sta infamando chi? :confused:

Infamare vuol dire mettere in giro brutte voci senza fondamento su una persona....

Sputo adosso?

Non ho scritto nvidia merd@ da nessuna parte....

Ho solo riportato ciò che ha fatto!
Ripeto che se poi per voi significa sputare adosso vuol dire che state cercando di difendere l'indifendibile.....

seccio
05-12-2003, 13:42
beh dai....sai bene che nn è così legolas....se rileggi questo thread vedrai che c'è chi dice "se l'è meritato"-"nVidia bara" ...manca solo che qualcuno dica "speriamo perdano tutti il lavoro" e poi siamo a posto.

che poi nVidia nn abbia fatto cose politicamente corrette , nn abbia fatto chip performanti....siamo tutti d'accordo....ma se cheattava i driver se abbassava la qualità....credo che l'abbia fatto per accontentare chi ha comprato le FX....(bischeri coloro che si fanno fregare dai semplici benchmark)...

ma della storia dei driver falsati....nn mi pare che chi avesse una FX si sia mai lamentato... e in fondo , è l'utente finale che deve risultare soddisfatto.

Korn
05-12-2003, 13:48
certo che se lo merita perchè produce e vende un scheda che dx9 full compliant poi si viene a sapere che non è tanto vero e si inventa trucchetti per mascherare e truffare (perchè altro non è) l'aquirente, è già tanto non considerala alla stregua di qualche misero truffatore da 4 soldi

seccio
05-12-2003, 13:54
Originariamente inviato da Korn
certo che se lo merita


come volevasi dimostrare.

Originariamente inviato da Korn
produce e vende un scheda che dx9 full compliant

te che te ne intedi . nn la compri . semplice . ma invece no...

Originariamente inviato da Korn
poi si viene a sapere che non è tanto vero e si inventa trucchetti per truffare (perchè altro non è)

già , ma nn mi pare che i possessori di nVidia si siano messi a piangere per questo....se lo fa ....basta , nn sto a ripeterlo ....leggi sopra.

Originariamente inviato da Korn
è già tanto non considerala alla stregua di qualche misero truffatore da 4 soldi

perchè sta cercando di tornare il sorriso a chi ha sc@zz@t0 acquitso.....bah.

ah per le DX presto diventerà compatibile al 100%..quindi.. ahh, ma no , questo è solo un intrigo di quei mafiosi......e io credevo che facessero di tutto per tappare le falle..per andare incontro a chi volesse comprare una nVidia o l'avesse già comprata....tzk....

Legolas84
05-12-2003, 13:59
Originariamente inviato da seccio
beh dai....sai bene che nn è così legolas....se rileggi questo thread vedrai che c'è chi dice "se l'è meritato"-"nVidia bara" ...manca solo che qualcuno dica "speriamo perdano tutti il lavoro" e poi siamo a posto.

che poi nVidia nn abbia fatto cose politicamente corrette , nn abbia fatto chip performanti....siamo tutti d'accordo....ma se cheattava i driver se abbassava la qualità....credo che l'abbia fatto per accontentare chi ha comprato le FX....(bischeri coloro che si fanno fregare dai semplici benchmark)...

ma della storia dei driver falsati....nn mi pare che chi avesse una FX si sia mai lamentato... e in fondo , è l'utente finale che deve risultare soddisfatto.


Già ora i toni mi piacciono di più per continuare la discussione..... :)

Se nvidia fosse uscita dalle DX 10 il problema grave sarebbe stato il dominio di ATI.... a meno che XGI non si rivelasse un miracolo....

Comunque in generale non è bello per un utente comprare una scheda da 6000punti al 3dmark che poi in realtà ne fa 5100.... (e il pensare che potevo caderci anche io mi fa andare in bestia...).

Poi ci sono utenti a cui basta avere una nvidia per essere felici....

So anche io che il fallimento di nvidia vorrebbe dire un disastro per molte persone che ci lavorano, ma per me utente che voglio che il prodotto che mi vendano corrisponda a quello che compro nvidia ha giocato troppo sporco..... capisci ciò che voglio dire.....;)

a suo tempo anche 3dfx andò in bancarotta... ma uno che lavora per un'azienda privata sa che ci sono questi rischi.... è la legge del mercato se non sei competitivo resti indietro..... nVidia si è messa a barare e ingannare pur di far credere di essere competitiva.... e questo mi fa schifo.... che poi nessuno gli debba augurare il fallimento questo è certo...

Comunque ora incollo ciò che ho detto di nvidia su un altro forum... magari vi aiuta meglio a capire la mia posizione.....

nVidia ha sempre fatto buone schede e dal GeForce 256 non ha sbagliato un colpo fino al GeForce 4 ti 4600......
Ma le FX sono un buco nell'acqua totale... non per niente una delle migliori offerte del mercato fino a poco tempo fa (prima che uscisse la 5700Ultra e la 9600XT) era il GeForce 4 Ti4200..... fate voi.....

Con NV40 e R420 la guerra sarà riaperta, ma la Serie NV3x Vs R3xx l'ha vinta ATi sia in qualità che velocità che stabilità.

Che dovrebbero dire gli utenti della serie FX che a ogni relase dei driver si vedevano cambiare la qualità nei giochi ogni volta? (ed erano sempre cambiamenti al ribasso per cercare di compensare le prestazioni di gran lunga inferiori alle schede Ati.... perchè si sa.. se si abbassa la qualità gli FPS aumentano...).

Gente che comprava le FX perchè facevano 6000Punti al 3dmark 03.... poi lo patchavano e ne facevano si e no 5100 come una 9700pro.....

E le soluzioni di cooling estremo che si sono dovuti inventare? Quel calore è provocato da tutti quei MHZ che cercano di compensare le 4 pipeline in meno delle nvidia......

Io non tifo... io odio il tifo, per questo cerco di mettere in luce tutti gli aspetti....
Ragazzi, nVidia è sempre stata superiore ad ATI, ma questo round l'ha perso.... si ci risente a giugno per il prossimo....

Scusate per il post un pò lungo, ma ci tenevo a far capire il mio pensiero.....:)

Korn
05-12-2003, 14:02
si si, sarà, diverrà ecc balle se half life 2 fosse uscito puntuale sa in quanti avrebberò maledetto nvidia? se nvidia mi vende una scheda dx9 da 400 euro lo deve essere SUBITO, ma scherziamo?!?
poi che discorso del "te ne intendi" un porello che non ci capisce nulla può essere infinocchiato? nah

seccio
05-12-2003, 14:17
Originariamente inviato da Korn
si si, sarà, diverrà ecc balle se half life 2 fosse uscito puntuale sa in quanti avrebberò maledetto nvidia? se nvidia mi vende una scheda dx9 da 400 euro lo deve essere SUBITO, ma scherziamo?!?
poi che discorso del "te ne intendi" un porello che non ci capisce nulla può essere infinocchiato? nah

a caso secondo te è stato rimandato? forse per dare tempo a microsoft di elaborare le DX che tappino le falle di nVidia!? secondo te le falle di nVidia nelle Dx9 erano programmate!? si come no.....:muro:

beh ....scusa, uno che nn se ne intende e si compra una scheda da 400€ senza sapere manco pregi e difetti....per me se lo merita di essere infinocchiato. i soldi ok spenderli , ma in modo ragionato , informandosi. in questo caso .....l'ignoranza nn è affatto un bene.

REPSOL
05-12-2003, 14:45
Eccola la la solita discussione è saltata fuori... ho perso il conto ormai :D :D :D

Almeno in questa gli animi sono pacati ;)

Ciaoz

Korn
05-12-2003, 17:53
Originariamente inviato da seccio
a caso secondo te è stato rimandato? forse per dare tempo a microsoft di elaborare le DX che tappino le falle di nVidia!? secondo te le falle di nVidia nelle Dx9 erano programmate!? si come no.....:muro:
credo l'abbiano rimandato perchè erano in ritardo non per altro
beh ....scusa, uno che nn se ne intende e si compra una scheda da 400€ senza sapere manco pregi e difetti....per me se lo merita di essere infinocchiato. i soldi ok spenderli , ma in modo ragionato , informandosi. in questo caso .....l'ignoranza nn è affatto un bene. si ma se uno se la prendeva poco dopo la sua uscita aveva voglia di informarsi, i bachi ancora non si conoscevano...

seccio
05-12-2003, 17:58
Originariamente inviato da Korn
credo l'abbiano rimandato perchè erano in ritardo non per altrosi

eppure....qualcuno al mondo ci sta già giocando. altro che nn pronto....:muro:

Originariamente inviato da Korn
ma se uno se la prendeva poco dopo la sua uscita aveva voglia di informarsi, i bachi ancora non si conoscevano...

dai primi 3dmark2003 la 5800ultra(ben prima dell'uscita sul mercato) aveva anomalie sul test pixel shader 2.0.....
:rolleyes:

DjLode
05-12-2003, 20:34
Originariamente inviato da Legolas84
Ha annunciato più e più volte che NV30 sarebbe stato un mostro.


Ti sei indignato e hai gridato allo scandalo nella stessa maniera quando Ati presentando la 8500 aveva annunciato che era del 30% più veloce della Gf3? Sì, lo era, in 3d Mark 2001. Nei giochi era costantemente sotto, se poi attivavamo qualche filtri manco ci arriva a tiro della Gf3. I PR non ti verranno mai a dire che il loro prodotto futuro è inferiore ad altri, verrebbero licenziati in tronco. Ci vedi un pr Nvidia che dice "la nostra scheda è veloce ma da prove di laboratorio il Radeon lo è di più, fate beneficienza e comprate il nostro prodotto". Suvvia...

Korn
05-12-2003, 20:53
Originariamente inviato da seccio
eppure....qualcuno al mondo ci sta già giocando. altro che nn pronto....:muro:
si chi il piratone?, ma dai, e secondo te si perdono il periodo natalizio e probabilmente escono in concomitanza con doom 3, ci devo credere?


dai primi 3dmark2003 la 5800ultra(ben prima dell'uscita sul mercato) aveva anomalie sul test pixel shader 2.0.....
:rolleyes:
si certo è una beta coi driver beta bla bla, non ci siamo, se nvidia dice che immette sul mercato un prodotto con x caratteristiche, questo le deve avere stop

DjLode
05-12-2003, 20:56
Originariamente inviato da Korn

si certo è una beta coi driver beta bla bla, non ci siamo, se nvidia dice che immette sul mercato un prodotto con x caratteristiche, questo le deve avere stop

Cosa manca?

Korn
05-12-2003, 21:47
nulla, vabbuo per voi è una buona società per me son peracottari nop :D

Dark Schneider
05-12-2003, 23:20
Originariamente inviato da Korn
nulla, vabbuo per voi è una buona società per me son peracottari nop :D


Non ho letto le ultime pagine, ma sinceramente a me non risulta che chi ha una 5900 giochi male o giochi non al top, ma anzi giochi al top. Quindi chi compra una 5900 gioca alla grandissima e con fps altissimi.
Ha qlc problemino? Vabbè ha qlc problemino...ma con un po' di pazienza è risolto. Già hanno risolto buona parte con gli ultimi drivers, con le DX9.1 lo sarà ancora di più.
Poi per tua informazione con gli ultimi drivers le schede FX sono aumentate le prestazioni nei giochi e anche la qualità d'immagine. Quindi nemmeno a dire le prestazioni a discapito della qualità. Son migliorate tutte due le cose.
Dici che quei problemini non ci dovevano essere sin dall'inizio? Scusa...ma guarda che i giochi DX9 non ci sono e quindi quando son uscite tempo fa proprio il problema non era sentito. Quando usciranno tutto ciò sarà solo un vago ricordo.
La 9800 è meglio riuscita rispetto della 5900? Ok, ma ciò non toglie che chi ha una 5900 gioca al TOP comunque, quindi tutto mi sembra tranne che una scheda che non vale i soldi spesi.

bye

=>TaroKSoft<=
06-12-2003, 00:00
Originariamente inviato da seccio
eppure....qualcuno al mondo ci sta già giocando. altro che nn pronto....:muro:


No, è strapiena di bug, pensa che lo sguardo si può fare andare a destra e sinistra ma non in alto e in basso (alla doom, insomma), hanno reso "pubblico" il suo motore grafico, e questo è un fatto molto grave.... Credo che il nostro "amico" hacker che ha uppato hl2 ci ha fatto un dispetto più che un favore....

seccio
06-12-2003, 11:37
Originariamente inviato da =>TaroKSoft<=
No, è strapiena di bug, pensa che lo sguardo si può fare andare a destra e sinistra ma non in alto e in basso (alla doom, insomma), hanno reso "pubblico" il suo motore grafico, e questo è un fatto molto grave.... Credo che il nostro "amico" hacker che ha uppato hl2 ci ha fatto un dispetto più che un favore....

non sarebbe meno bacata di altri giochi esistenti sul mercato. e cmq sono bug o versioni beta facilmente risolvibili......ma ricordate , doveva essere il gioco del 2003, nn del 2004. eppure nn arriverà mai nel 2003....qui andiamo anche OT , ma se il gioco se pur in versioni pirata è già disp e a questi livelli .....poteva già essere in commercio tranquillamente.

DjLode
06-12-2003, 13:14
Originariamente inviato da =>TaroKSoft<=
No, è strapiena di bug, pensa che lo sguardo si può fare andare a destra e sinistra ma non in alto e in basso (alla doom, insomma), hanno reso "pubblico" il suo motore grafico, e questo è un fatto molto grave.... Credo che il nostro "amico" hacker che ha uppato hl2 ci ha fatto un dispetto più che un favore....

Ancora a credere a quella storiella dell'hacker che ruba il codice sorgente e il gioco praticamente finale dai server Valve sfruttando Outlook? Eheheh l'hanno venduta proprio bene se c'è gente che ci crede :)
Svegliaaaa il gioco non era pronto e si sono inventati una scusa per motivare il ritardo.

seccio
06-12-2003, 13:43
Originariamente inviato da DjLode
Ancora a credere a quella storiella dell'hacker che ruba il codice sorgente e il gioco praticamente finale dai server Valve sfruttando Outlook? Eheheh l'hanno venduta proprio bene se c'è gente che ci crede :)
Svegliaaaa il gioco non era pronto e si sono inventati una scusa per motivare il ritardo.

da quello che ho visto ....il gioco è pronto eccome invece.....almeno da quella beta. o almeno nn è lontano anni luce dall'uscita....come pare invece che sia.

=>TaroKSoft<=
06-12-2003, 19:16
Originariamente inviato da DjLode
Ancora a credere a quella storiella dell'hacker che ruba il codice sorgente e il gioco praticamente finale dai server Valve sfruttando Outlook? Eheheh l'hanno venduta proprio bene se c'è gente che ci crede :)
Svegliaaaa il gioco non era pronto e si sono inventati una scusa per motivare il ritardo.

Allora mi spieghi perche su p2p ne trovi una versione beta?!?:O

Redvex
06-12-2003, 21:06
Non vuole dire che non esiste intende dire che l'hanno xmesso questo o sono stati addirittura loro a diffonderla, x poi trovare una scusa x il ritardo.....se ho interpretato bene.
Cmq la cosa è molto sospetta.....farsela rubare tramite outlook...la Valve......:rolleyes:

REPSOL
07-12-2003, 02:16
IO ho visto la demo funzionare, e da quel trailer della presentazione non c'è nemmeno l'ombra.

In tante mappe mancano le texture, mancano le animazioni di qaundo si viene colpiti, molti suoni, molti ambienti sparati a caso e manca sempre anche l'arma per sollevare gli oggetti.

Per non dimenticarsi dell'IA manca completamente del tutto :(

L'IA più intelligente che ho riscontrato è quella che quando spari agli umani si mettono a correre e quando spari ai mostri ti vengono incontro :rolleyes:
Ah a dir la verità ho pure trovato uno che se mi affacciavo su una strada mi sparava missili :D

Poi nemmeno i veicoli si possono usare :(

Da quel che ho visto di lavoro se quella rispecchia veramente fino a che punto sono, è che hanno sempre almeno 6-7 mesi di lavoro a parer mio.

Ciaoz

seccio
07-12-2003, 13:01
Originariamente inviato da REPSOL


Poi nemmeno i veicoli si possono usare :(



dice dieg che i veicoli si possono usare invece!! :D ;)

REPSOL
07-12-2003, 13:59
Originariamente inviato da seccio
dice dieg che i veicoli si possono usare invece!! :D ;)

Ma te ascolti dieg? :p :p :p :p :p Non si rinviene poverino :D :D :D
IAHIAHAIAH

Io cmq non ne ho avuto la possibilità.

La gippetta c'è :), ma non te la fa usare :(

Cmq c'è da dire che le texture sono spaventose, mai viste di così belle :D
C'è anche un'altro effetto di un elicottero che si avvicina all'acqua e si alza tutta la nebbia di acqua polverizzata dove te ci devi passare all'interno, anche quello è fatto veramente bene :D
Però di qui a finire il gioco booooonanotte :)

Ciaoz