PDA

View Full Version : Aspettando NV40


Pagine : 1 2 3 [4] 5 6

Dark Schneider
03-04-2004, 13:09
Originariamente inviato da Castec
Ma ieri non doveva essere rivelata dettagliatamente l'architettura?


Ai giornalisti si. Il Corsini infatti è a San Francisco al meeting con nVidia che dura 2 giorni (ieri e oggi) e domenica pomerigio dovrebbe tornare con un sample di NV40 in Italia.

Ma la pesentazione al publico c'è tra 10 giorni, il 13.
Ovviamente però si spera che dopo questo meeting cmq qlcsina di più salti fuori...anche perchè vari giornalisti riceveranno sample di NV40 anche se però saranno sempre sotto NDA.
Sicuro Corsini con il suo Sample di NV40 sicuro testerà la scheda per 10 giorni così che il giorno stesso o magari quello dopo alla presentazione ufficiale del 13...avremo già i primi bench ufficiali ed un articolo ufficiale. :)

zerothehero
03-04-2004, 13:25
ma perchè esiste NDA? perchè tanta segretezza??

Simon82
03-04-2004, 13:53
Originariamente inviato da palombaro
guarda che l' algoritmo di aa della 3dfx cagava in tesata ali altri è uno di migliori
:O :O
CagaVA in testa a tutti.. giusto.. allora... ma adesso non direi che cagherebbe in testa ad un multisampling di una 9800 XT.. ;)

pandyno
03-04-2004, 13:58
Originariamente inviato da Simon82
CagaVA in testa a tutti.. giusto.. allora... ma adesso non direi che cagherebbe in testa ad un multisampling di una 9800 XT.. ;)

Se solo ti funzionasse quella 6000 :D

Dark Schneider
03-04-2004, 14:15
Originariamente inviato da zerothehero
ma perchè esiste NDA? perchè tanta segretezza??

Beh se uno firma NDA può avere più informazioni, può visionere più roba,ecc. però non può rivelare nulla fino a quando l'NDA scade.
Naturalmente ci deve stare questa segretezza, perchè sbandierare a destra e a manca è una strategia poco intelligente. Si cerca di far capire il meno possibile al concorrente ovvio.
L'NDA non è altro che l'inizio della "battaglia" che i due produttori si fanno possiam dire! :)

Cmq quest'anno la segretezza è molto maggiore che in passato da come sto notando. Ragà dobbiamo anche aspettarci che al 90% tutti i rumors letti fino ad ora su specifiche,foto,ecc. .......minchiate,eh? :sofico:

JENA PLISSKEN
03-04-2004, 16:04
Spero che ATI si sia decisa a passare a questo benedetto AF a schermo pieno....nn quello attuale...;)

xpiuma
03-04-2004, 17:51
Originariamente inviato da JENA PLISSKEN
Spero che ATI si sia decisa a passare a questo benedetto AF a schermo pieno....nn quello attuale...;)

Bè, io penso di si...

Comunque non mi sento assolutamente di criticare la scelta che ha fatto ATI con la serie R300; i giochi attuali non risentono di questa "mancanza", avendo quasi tutti pavimenti e pareti ortogonali al pdv.
Anzi, IMHO ATI ha fatto bene ad utilizzare una tecnologia del genere, che dando gli stessi risultati di quella nVidia rimane più leggera.

Con la prossima generazione di giochi, a partire da Far-Cry fino a S.T.A.L.K.E.R. (sembra fantastico in foto :eek: ) serve invece (sempre IMHO) un approccio diverso da quello attuale, e penso che ATI se ne sia resa conto e che lo stia implementando in R4xx.

Ma comunque, come ho già scritto 6 o 7 volte in questo thread... staremo a vedere!!!!

Dark Schneider
03-04-2004, 18:20
Originariamente inviato da JENA PLISSKEN
Spero che ATI si sia decisa a passare a questo benedetto AF a schermo pieno....nn quello attuale...;)


Sicuro!! :) Sicuro Ati implementerà un AF simile a quello nVidia. Come nVidia tra l'altro avrà di certo migliorato l'FSAA!!;)

checo
03-04-2004, 18:21
Originariamente inviato da palombaro
guarda che l' algoritmo di aa della 3dfx cagava in tesata ali altri è uno di migliori
:O :O

se parliamo di algoritmo tenendo come parametro la qualità posso anche concordare.
se valutiamo il rapporto qualità/calo di prestazioni penso che una ati attuale sia superiore.

tutto qua i fantomatici ing 3dfx li hanno già adottati i fans, un paio sono anche in italia credo :D

Anonized
03-04-2004, 18:26
ma questo maledetto nv40 sarà agp 8x o pci express 16x? :confused:

crysor
03-04-2004, 18:31
Agp 8x anche perchè al momento del dubutto il pci-express non sarà per niente diffuso. NV45 sarà invece pci-express.

Dark Schneider
03-04-2004, 19:14
Originariamente inviato da Anonized
ma questo maledetto nv40 sarà agp 8x o pci express 16x? :confused:


Agp 8x...questo è poco ma sicuro.

Dark Schneider
03-04-2004, 20:45
Ragà ripropongo questa immagine tratta dal Cebit, un cartello di Informazioni della MSI.
Il modello di NV40 della MSI: MS-8966. Notare: AGP 8X Interface. :)

http://www.xbitlabs.com/images/editorial/cebit2004-3/nvidia.jpg

Dark Schneider
04-04-2004, 01:29
Oggi ripensando un po' ai nuovi due chip video ho fatto un ulteriore passo verso il nVidia NV40 ed uno più di allontanamento verso R420. Motivo è l'utilizzo in Linux. Le schede nVidia sono le migliori sotto Linux in tutto e per tutto, per qls funzionalità ed in più ultimamente gioco parecchio a giochi(su tutti NWN) in Open GL e le schede video nVidia rullano sotto Linux in Open GL. Mentre Ati non offre l'accellerazione 3d sotto Linux...almeno fino ad un po' di tempo fa mi pare..e cmq se la offrono non sono all'altezza delle prestazioni nVidia purtroppo.
Quindi ulteriore passo verso NV40. In effetti più passano i giorni e più mi rendo conto che ho ben più di un motivo per scegliere NV40 invece di R420. Cmq staremo a vedere.

KenMasters
04-04-2004, 03:03
Originariamente inviato da Dark Schneider
Oggi ripensando un po' ai nuovi due chip video ho fatto un ulteriore passo verso il nVidia NV40 ed uno più di allontanamento verso R420. Motivo è l'utilizzo in Linux. Le schede nVidia sono le migliori sotto Linux in tutto e per tutto, per qls funzionalità ed in più ultimamente gioco parecchio a giochi(su tutti NWN) in Open GL e le schede video nVidia rullano sotto Linux in Open GL. Mentre Ati non offre l'accellerazione 3d sotto Linux...almeno fino ad un po' di tempo fa mi pare..e cmq se la offrono non sono all'altezza delle prestazioni nVidia purtroppo.
Quindi ulteriore passo verso NV40. In effetti più passano i giorni e più mi rendo conto che ho ben più di un motivo per scegliere NV40 invece di R420. Cmq staremo a vedere.


E' ancora presto per tirare conclusioni. Cmq sappi che se ti affiderai a nvidia disporrai di una stabilità eccezionale. Su questo non ci piove! :)

Thunder82
04-04-2004, 03:35
Originariamente inviato da KenMasters
E' ancora presto per tirare conclusioni. Cmq sappi che se ti affiderai a nvidia disporrai di una stabilità eccezionale. Su questo non ci piove! :)

Questo è un luogo comune che va sfatato, passando dalla Ti4200 alla 9600XT non ho ASSOLUTAMENTE notato minore stabilità. Prima avevo la 8500, nell'epoca dei driver pre-catalyst, e lì sì che c'era da mettersi a piangere, e infatti ero passato alla 4200 per disperazione! E' ora di finire questa storia dei forceware più stabili dei catalyst, sono tutti e 2 allo stesso livello ora.

checo
04-04-2004, 11:41
Originariamente inviato da Thunder82
Questo è un luogo comune che va sfatato, passando dalla Ti4200 alla 9600XT non ho ASSOLUTAMENTE notato minore stabilità. Prima avevo la 8500, nell'epoca dei driver pre-catalyst, e lì sì che c'era da mettersi a piangere, e infatti ero passato alla 4200 per disperazione! E' ora di finire questa storia dei forceware più stabili dei catalyst, sono tutti e 2 allo stesso livello ora.

sotto linux non direi :D

Athlon 64 3000+
04-04-2004, 11:53
lo ripeto anche io la storia che i catalyst sono meno stabili dei Driver Nvidia è solo un lontano ricordo.
E io inceve anche se non si sa ancora niente di ufficiale riguardo ai due nuovi chip sono più propenso verso L'R420.

Dark Schneider
04-04-2004, 12:13
Ragà io parlo di Linux. Checo conosce bene la situazione. :)

Athlon 64 3000+
04-04-2004, 12:17
Lo so benissimo che in Linux Nvidia è molto migliore di Ati.Ma io ho detto che sotto windows i calalist sono stabili come i Forceware.

Dark Schneider
04-04-2004, 12:22
Originariamente inviato da Athlon 64 3000+
Lo so benissimo che in Linux Nvidia è molto migliore di Ati.Ma io ho detto che sotto windows i calalist sono stabili come i Forceware.


Per questo dico che ho fatto un ulteriore passo verso NV40. :)
Poi uso più Linux che windows. Poi ripeto ultimamente quando gioco....gioco a quelli Open GL e quindi sotto linux vanno. :)

Yagami
04-04-2004, 12:23
Io non ho problemi, visto che (ancora) non uso Linux.

umile
04-04-2004, 12:36
tante parole per questo nv40.......................................poi come al solito ati farà il passo più grande........e tutti diranno che delusione questo nv40............

zerothehero
04-04-2004, 13:35
Originariamente inviato da umile
tante parole per questo nv40.......................................poi come al solito ati farà il passo più grande........e tutti diranno che delusione questo nv40............


questa volta non credo...ma è solo una mia impressione...credo che ci sarà un grosso stacco tra le schede....mi sa che ati sta pensando molto + seriamente alla futura scheda da montare nell'x-box2...

Yagami
04-04-2004, 13:41
Io sono invece più daccordo con Umile. Nvidia ha sempre esagerato con la pubblicità delle sue schede, nei ultimi tempi. Il problema è che poi i fan ci rimangono male forte a causa delle promesse non mantenute.
Speriamo bene.

Ciao!

checo
04-04-2004, 14:56
Originariamente inviato da Yagami
Io sono invece più daccordo con Umile. Nvidia ha sempre esagerato con la pubblicità delle sue schede, nei ultimi tempi. Il problema è che poi i fan ci rimangono male forte a causa delle promesse non mantenute.
Speriamo bene.

Ciao!


infatti nvida non ha pubblicizzato un bel nulla sino ad oggi zero assoluto

Koji
04-04-2004, 16:27
40 pagine di 3d per commentare il nulla....


Complimenti raga!!!! :D :oink:

Dark Schneider
04-04-2004, 16:56
Originariamente inviato da checo
infatti nvida non ha pubblicizzato un bel nulla sino ad oggi zero assoluto


Infatti nVidia non ha detto nulla su numero di Pipeline e altro. Sono altri che pompano.

Cmq ragà il Corsini dovrebbe tornare questo pomeriggio.....con un bel sample di NV40...beato lui!!:)

Dark Schneider
04-04-2004, 18:13
Originariamente inviato da umile
tante parole per questo nv40.......................................poi come al solito ati farà il passo più grande........e tutti diranno che delusione questo nv40............


Cmq ogni 2-3 giorni te ne esci con la stessa frase. Ma per una volta che mi puoi illustrare dove nVidia ha "parlato tanto" di NV40? Qui si parla tanto di NV40, ma nVidia non mi risulta ne abbia parlato "tanto" della sua GPU. Mi puoi spiegare dove nVidia ha pompato sta scheda?

No perchè qui se poi NV40 delude in quanto a numeri (vedi numero di pipeline) va finire che la colpa è pure di nVidia perchè "prima aveva detto 16",eh?:rolleyes:

Io dico che nVidia non ha detto nulla di nulla e chi è stato attento negli ultimi mesi sul NV40 sà bene che è così.

Per di più capisco che sei un super tifoso Ati, ma fossi in te aspetterei prima di dare la "vittoria" certa ad Ati. Come non lo si può dare a nVidia. Sai com'è....nVidia ed Ati non hanno detto nulla riguardo ai loro prossimi chip video.

Dark Schneider
04-04-2004, 18:15
Originariamente inviato da zerothehero
questa volta non credo...ma è solo una mia impressione...credo che ci sarà un grosso stacco tra le schede....mi sa che ati sta pensando molto + seriamente alla futura scheda da montare nell'x-box2...


Secondo me invece saranno sullo stesso livello come al solito. E' un po' difficile staccare nettamente l'altro. Anche se all'inizio dovranno maturare drivers da entrambe le parti, ma alla fine a mio parere saranno lì entrambi.

737373
04-04-2004, 21:14
Originariamente inviato da umile
tante parole per questo nv40.......................................poi come al solito ati farà il passo più grande........e tutti diranno che delusione questo nv40............

uff :muro: :muro: mhhhh... :muro: :muro: "come al solito" dici ... scusa guarda che nelle ultime generazioni le schede migliori si sono alternate tra nvidia e ati.... quindi "come al solito" non lo direi proprio ... :rolleyes:

vuoi un esempio?

Gf3 e Ati 8500 erano piu o meno alla pari (più o meno non so dirti precisamente perche non ero ancora cosi sfegatato di hardware all epoca)

La Gf4 le dava alla 8500 ed ha dominato per un bel periodo....

Mentre nella storia piu recente si è visto come ati con le 9700 and family ha dato merd* ad nvidia (che poi ha recuperato ma sicuramente questa generazione ATi è meglio riuscita della controparte nvidia)



e adesso che succederà ?? e chi lo sa... forse "UMILE" ?? non credo .... forse "CORSINI" ? (gia più probabile :D ) ..... cmq sia io ho una leggera preferenza per nvidia (i piace di piu il nome niente di più .... :D :sofico: ) e dopo 3 generazioni ati (rage 128 , radeon 7500 e 9000 pro ) son passato a nvidia (5700ultra) e deluso di certo non son rimasto... anche se naturalmente questa scheda è di tutt altro livello rispetto alle precedenti...

NV40 ? r420 ? boh tanto per ora non posso permettermele :sofico: :D :rolleyes:

737373
04-04-2004, 21:20
Originariamente inviato da Dark Schneider
Secondo me invece saranno sullo stesso livello come al solito. E' un po' difficile staccare nettamente l'altro. Anche se all'inizio dovranno maturare drivers da entrambe le parti, ma alla fine a mio parere saranno lì entrambi.

secondo me questo non è detto... certo con la filosofia di mercato di ora è probabile... ma se uno cambiasse completamente metodo... o introducesse qualcosa di sensazionale , una nuova tecnologia o altro... pensa se x es amd avesse fatto uscire gli amd 64 a 2 ghz ai tempi dei pentium 3 :sofico: .... o se intel avesse fatto uscire il P4EE ai tempi del thunderbird..... :sofico: ....

oppure se qualche azienda (o io nel mio garage :sofico: ) sta costruendo una scheda con 128 pipeline , 2ghz sul core , memorie da 1,5 ghz DDR 4 ( :rolleyes: ) , che supporta antialiases 32x ....

bhe io non darei nulla per scontato certo con sti esempio ho estremizato UN PO ( :sofico: ) ma il salto generazionale secondo me è sempre dietro l angolo.... e se lo fa un azienda non è detto che lo faccia in contemporanea anche l altra...

Dark Schneider
04-04-2004, 21:48
Si ma si tratta per entrambe di salto generazionale, ma io preferisco un po' rimanere un po' più con i piedi per terra come differenza di prestazioni per i due chip.

Il fatto sai cos'è? Che ad esempio non ho dubbi sul fatto che Ati o nVidia con R420 e NV40 rispettivamente possano implementare tecnologie rivoluzionarie...ma però poi bisogna vedere se queste tecnologie sono sfruttabili sin da subito o meno.

737373
04-04-2004, 21:53
Originariamente inviato da Dark Schneider
Si ma si tratta per entrambe di salto generazionale, ma io preferisco un po' rimanere un po' più con i piedi per terra come differenza di prestazioni per i due chip.

Il fatto sai cos'è? Che ad esempio non ho dubbi sul fatto che Ati o nVidia con R420 e NV40 rispettivamente possano implementare tecnologie rivoluzionarie...ma però poi bisogna vedere se queste tecnologie sono sfruttabili sin da subito o meno.

quoto in toto

cmq sai se le prime versioni implementeranno gia ddr 3 oppure utilizzeranno le "vecchie" ddr o ddr2 ?

il 13 si avvicina.... :oink: :oink: :oink: :oink: :oink:

Dark Schneider
04-04-2004, 22:31
Originariamente inviato da 737373
quoto in toto

cmq sai se le prime versioni implementeranno gia ddr 3 oppure utilizzeranno le "vecchie" ddr o ddr2 ?

il 13 si avvicina.... :oink: :oink: :oink: :oink: :oink:


No no praticamente già DDR3 dovrebbero essere. Pare che le DDR3 siano meno costose e per di più consumano il 10% in meno sia di default che sotto OC rispetto alle DDR2.

Il 13 si avvicina si...la presentazione al publico!! :)

Oggi pomeriggio il Corsini dovrebbe essere tornato in Italia...e con una ragionevole probabilità con un sample di NV40. Ma probabilmente si farà sentire lunedì anche perchè dubito che col fuso orario il Corsini sia in condizioni di scrivere qlc.:D

737373
04-04-2004, 22:38
Originariamente inviato da Dark Schneider
No no praticamente già DDR3 dovrebbero essere. Pare che le DDR3 siano meno costose e per di più consumano il 10% in meno sia di default che sotto OC rispetto alle DDR2.

Il 13 si avvicina si...la presentazione al publico!! :)

Oggi pomeriggio il Corsini dovrebbe essere tornato in Italia...e con una ragionevole probabilità con un sample di NV40. Ma probabilmente si farà sentire lunedì anche perchè dubito che col fuso orario il Corsini sia in condizioni di scrivere qlc.:D


eheheh o potente :ave: Dark Schneider :ave: tienici informati sulla divinità NV40 ( :yeah: ) e sulla sua potemte contendente r420 ... e fa in modo che non sia tutto :blah: :blah: ma che qualcosa migliori... e di brutto anche (ma di bruto bruto bruto eh.... :D )

dopo sta cazzata direi che posso andare a dormire.... gia non sono un genio in tedesco ... se poi arrivo stanco morto a lezione mi sa che non capischerò (è giusto sto verbo.... mi suona un po strano ... :rolleyes: :D ) niennte (anche qui.... )


notte...


e che nvidia sia con voi


















AMEN :sofico:

Cifer
05-04-2004, 09:27
http://www.theinquirer.net/?article=15169

737373
05-04-2004, 09:36
Originariamente inviato da Cifer
http://www.theinquirer.net/?article=15169


uffa io speravo in qualcosa di piu di 12000 con un 4.5 ghz :cry: :cry: :cry: :cry: vabbe mi acocntenterò

halduemilauno
05-04-2004, 09:48
Originariamente inviato da 737373
uffa io speravo in qualcosa di piu di 12000 con un 4.5 ghz :cry: :cry: :cry: :cry: vabbe mi acocntenterò


guarda che i 12535 sono stati ottenuti con un fx64. il p4 a 4.5 citato accoppiato ad una 9800xt ha fatto in oc e a liquido 10008.
sperando di non aver capito male.
ciao.

;)

Cifer
05-04-2004, 10:07
http://www.theinquirer.net/?article=15172

737373
05-04-2004, 10:53
Originariamente inviato da Cifer
http://www.theinquirer.net/?article=15172

ha grazie hal ... cmq non è che con il procio il 3dmerd 03 cambi molto.... cmq gia meglio se è stato ottenuto con fx64 default...

per cifer interessante l articolo sul nome delle schede con nv40 immaginavo che si fossero chiamate 6xxx ... quel che mi interessa è il nome di r420 ... chiamarle X000 o X100 fa leggermente... ehm... schifo (ovviamente ihmo)

royal
05-04-2004, 11:04
il 3dmark 2k3 vuol dire niente..ormai penso ke sia chiaro x tutti..
poi nvidia ne sa qualcosa .. con i suoi drivers

R@nda
05-04-2004, 11:15
Si va bene ma 12000 al 3d03 cheat o no,sono tanti.:)
va bene tutto....vogliamo dargli 2000 punti di cheat (cosa impossibile).....sono 10000....e sono tanti lo stesso.

Maury
05-04-2004, 11:23
Sn tanti si :)

umile
05-04-2004, 11:35
bah! vediamo il r420

Dark Schneider
05-04-2004, 13:43
Originariamente inviato da R@nda
Si va bene ma 12000 al 3d03 cheat o no,sono tanti.:)
va bene tutto....vogliamo dargli 2000 punti di cheat (cosa impossibile).....sono 10000....e sono tanti lo stesso.


I cheat non danno manco migliaia di punti...ma centinaia da come abbiam visto. :)

Dark Schneider
05-04-2004, 13:44
Ragà nVidia ha dato i sample ai giornalisti al meeting.....purtroppo a quelli europei invece saranno spediti. Quindi il Corsini dovrebbe averlo mercoledì.

Dark Schneider
05-04-2004, 13:47
Originariamente inviato da 737373
ha grazie hal ... cmq non è che con il procio il 3dmerd 03 cambi molto.... cmq gia meglio se è stato ottenuto con fx64 default...

per cifer interessante l articolo sul nome delle schede con nv40 immaginavo che si fossero chiamate 6xxx ... quel che mi interessa è il nome di r420 ... chiamarle X000 o X100 fa leggermente... ehm... schifo (ovviamente ihmo)

Invece penso che X800 pronunciato "ics 800" è molto meglio che di "diecimilaottocento" (orrendo).

Dark Schneider
05-04-2004, 13:49
Cmq carini i loghi:

http://www.theinquirer.net/images/articles/6800.jpg

Probabilmente io prenderò la 6800...la liscia. :)

ATi7500
05-04-2004, 13:59
Originariamente inviato da Dark Schneider
Cmq carini i loghi:

http://www.theinquirer.net/images/articles/6800.jpg

Probabilmente io prenderò la 6800...la liscia. :)
i soliti da 2 anni a questa parte :D


bYeZ!

R@nda
05-04-2004, 14:57
Originariamente inviato da Dark Schneider
I cheat non danno manco migliaia di punti...ma centinaia da come abbiam visto. :)


No no lo so......è che già c'era qualcuno che gridava al cheat (e non solo qui).....e allora anche se per assurdo ci fossero 2000punti di cheat 10000 sarebbero tanti lo stesso.
In quel senso.

Un cheat al massimo potrà avvantaggiare di 500 punti...o cose così.

ma con questa generazione...sopratutto alla presentazione non credo proprio che ne Nvidia ne Ati si permetteranno di mettere qualche cheat via drivers.
Son tutti li con il fucile puntato che non aspettano altro.;)

Dark Schneider
05-04-2004, 16:03
Originariamente inviato da R@nda
No no lo so......è che già c'era qualcuno che gridava al cheat (e non solo qui).....e allora anche se per assurdo ci fossero 2000punti di cheat 10000 sarebbero tanti lo stesso.
In quel senso.

Un cheat al massimo potrà avvantaggiare di 500 punti...o cose così.

ma con questa generazione...sopratutto alla presentazione non credo proprio che ne Nvidia ne Ati si permetteranno di mettere qualche cheat via drivers.
Son tutti li con il fucile puntato che non aspettano altro.;)


Infatti non so perchè bisogna parlare di cheat quando non si sà nulla di questi due chip video. Tra l'altro appunto questi "cheat" danno centinaia di punti e non di certo migliaia di punti come abbiam potuto notare.

Cmq io dico che il 3d mark non conta a nulla...ma cmq ho come la sensazione che chi criticava nVidia per il 3d mark 2003....adesso se NV40 andrà meglio di R420....di colpo 3d Mark 2003 non conterà più nulla!!:D
Non dico che i sostenitori Ati pensano tutti che 3d Mark 2003 conti a qlc.....ma cmq ci sono anche quelli che lo pensano ed usavano 3d Mark 2003 per critcare nVidia.

Io spero che ci si metta daccordo su quali test prendere realmente in considerazione !;)

Dark Schneider
05-04-2004, 16:05
Originariamente inviato da ATi7500
i soliti da 2 anni a questa parte :D


bYeZ!


Ehehe vabbè ma cmq son belli.....a me poi frega poco del nome. Basta che escono.

Però c'è una novità: pare che la sigla FX non ci sarà più. Secondo me meglio!:sofico: Quindi GeForce 6800 e GeForce 6800 Ultra.

checo
05-04-2004, 16:19
avranno pensato pure loro che porta rogna la sigla fx?

Dark Schneider
05-04-2004, 16:27
Originariamente inviato da checo
avranno pensato pure loro che porta rogna la sigla fx?

Se vuoi il mio modesto parere: SI!:D

Infatti è da un po' che dico che spero fortemente che tolgano quella sigla per le nuove schede!!:sofico:

Dark Schneider
05-04-2004, 16:30
Mi sa che quelli che vogliono la 5900XT che inizino a fare l'ultimo assalto.

http://www.theinquirer.net/?article=15170

Quindi la 5700 Ultra con DDR3 prenderà il posto delle 5900XT e vabbè poi nella fascia alta ci saranno NV40 liscia ed Ultra.

KenMasters
05-04-2004, 16:46
Originariamente inviato da Dark Schneider
Mi sa che quelli che vogliono la 5900XT che inizino a fare l'ultimo assalto.

http://www.theinquirer.net/?article=15170

Quindi la 5700 Ultra con DDR3 prenderà il posto delle 5900XT e vabbè poi nella fascia alta ci saranno NV40 liscia ed Ultra.


E' solo un'operazione commerciale per fare aumentare le vendite della 5900 xt secondo me.

Dark Schneider
05-04-2004, 17:11
Originariamente inviato da KenMasters
E' solo un'operazione commerciale per fare aumentare le vendite della 5900 xt secondo me.


Secondo me le ultime vendite...

In effetti ho visto la 5700 Ultra DDR3 che debutterà almeno nelle prime settimane a 250 euro(poi si abbassa).

E' probabile che nVidia cessi del tutto la produzione di NV35. Tra l'altro NV36 cesserà di essere prodotto questa estate(arriva NV43 per la fascia media).

Secondo me si vogliono dedicare al massimo nella produzione di fascia alta. Qlc tempo fa avevo letto che voleva far in modo che al lancio di NV40 la quantità di schede fossero più del solito.

Koji
05-04-2004, 18:05
Originariamente inviato da Dark Schneider
Cmq carini i loghi:

http://www.theinquirer.net/images/articles/6800.jpg

Probabilmente io prenderò la 6800...la liscia. :)


Niente 6800 XT?

Ma non hanno capito che ci vuole una terza scheda a prezzo abbordabile per far fare successo a ste schede? Senza la 4200 le GeForce4 non avrebbero venduto così tanto!!! :rolleyes:

Dark Schneider
05-04-2004, 18:16
Originariamente inviato da Koji
Niente 6800 XT?

Ma non hanno capito che ci vuole una terza scheda a prezzo abbordabile per far fare successo a ste schede? Senza la 4200 le GeForce4 non avrebbero venduto così tanto!!! :rolleyes:


Io penso che se la metteranno...la metteranno più in là. Inizialmente penso ci saranno molto più probabilmente 6800 e 6800 Ultra.

Cmq questi son sempre rumors...staremo a vedere quale sarà la Gamma nVidia...tra una settimana!! :)

In realtà penso che ci possa essere una versione della liscia ma con 128 Mb...che al massimo costerà 300 euro.

Così:

6800 128 MB : 300 euro
6800 256 MB : 350-380 euro (max 400)
6800 Ultra 256 MB: 500 euro in su


Questo perchè ho visto le Info di un cartello del Cebit di MSI (andate a guardare nella pagina prima) in cui ci sono tra le caratteristiche sicure: 128 MB/256 MB.


Una versione da 128 MB...anche se è il nuovo NV40 non penso che possa costare troppo..ormai 128 MB sono montate anche nelle schede di fascia super bassa.


Cmq io personalmente sono per la versione liscia da 256 MB. Basta che non mi fanno che solo la Ultra ha 256 MB..che alla Ultra non ci posso arrivare come prezzo. Una liscia da 256 MB invece si.

halduemilauno
05-04-2004, 18:19
Originariamente inviato da Koji
Niente 6800 XT?

Ma non hanno capito che ci vuole una terza scheda a prezzo abbordabile per far fare successo a ste schede? Senza la 4200 le GeForce4 non avrebbero venduto così tanto!!! :rolleyes:


può darsi. ma a ottobre si scontrerebbe con la 6600(NV43) e la NV41.
ciao.

;)

Dark Schneider
05-04-2004, 19:40
Originariamente inviato da halduemilauno
può darsi. ma a ottobre si scontrerebbe con la 6600(NV43) e la NV41.
ciao.

;)


Secondo me se non li vedremo nei primi mesi...questa volta non la si vedrà una simile scheda. Nel senso che se esce parecchi mesi più in là uscirà in un periodo in cui nVidia non vorrà più produrre schede Agp....nel periodo in cui usciranno NV41 (NV40 con pci express nativo che sotituira NV40) e NV43 appunto. Secondo me le ultime due schede agp che usciranno saranno quelle che nVidia presenterà il 13.

pon 87
05-04-2004, 19:49
penso che anch'io andrò sulla liscia con 256MB:D

Lord style
05-04-2004, 20:21
Originariamente inviato da pon 87
penso che anch'io andrò sulla liscia con 256MB:D


Ho appena dato un'occhiata al tuo pc :D :D :D L'unico punto debole è la GF FX 5900 ultra. (... eh chiamiamola punto debole :D ) Ora la cambierai anche.

Certo che sei proprio appassionato di computer :sofico:

pon 87
05-04-2004, 20:49
Originariamente inviato da Lord style
Ho appena dato un'occhiata al tuo pc :D :D :D L'unico punto debole è la GF FX 5900 ultra. (... eh chiamiamola punto debole :D ) Ora la cambierai anche.

Certo che sei proprio appassionato di computer :sofico:
si, tanto soprattutto di schede video:D
la 5900 ultra può ancora resistere per due mesetti al max:D :eek: :D

KenMasters
05-04-2004, 21:16
Originariamente inviato da Koji
Niente 6800 XT?

Ma non hanno capito che ci vuole una terza scheda a prezzo abbordabile per far fare successo a ste schede? Senza la 4200 le GeForce4 non avrebbero venduto così tanto!!! :rolleyes:


E soprattutto le nuove schede di fascia media saranno tutte pci express, quando ancora ci sono persone che non sanno nemmeno di cosa si tratta. Possibile che bisogna per forza spendere 500 euro per avere una geforce 6xxx? Credo che togliere la 5900 xt dal mercato sia la mossa più sbagliata che nvidia possa fare, perche SICURAMENTE la 5700 ultra con dd3 non arriverà mai alle prestazioni della XT.

Dark Schneider
05-04-2004, 21:27
Originariamente inviato da pon 87
si, tanto soprattutto di schede video:D
la 5900 ultra può ancora resistere per due mesetti al max:D :eek: :D


AHahah...la voglia di NV40 prevale!!!:sofico:

Norbrek™
05-04-2004, 21:29
Originariamente inviato da Dark Schneider
AHahah...la voglia di NV40 prevale!!!:sofico:
Fate venire voglia anche a me!!!
Ma devo resistere, questa generazione la salto, spero di non farmi sopraffare dai numeroni che vedrò nei bench:sofico:

Dark Schneider
05-04-2004, 21:34
Originariamente inviato da KenMasters
E soprattutto le nuove schede di fascia media saranno tutte pci express, quando ancora ci sono persone che non sanno nemmeno di cosa si tratta. Possibile che bisogna per forza spendere 500 euro per avere una geforce 6xxx? Credo che togliere la 5900 xt dal mercato sia la mossa più sbagliata che nvidia possa fare, perche SICURAMENTE la 5700 ultra con dd3 non arriverà mai alle prestazioni della XT.


Io consiglio a chi vuole prendersi sta scheda di prenderla adesso o al massimo appena verrà lanciata NV40.

D'altronde anche Ati farà sicuramente lo stesso: 9800 Pro e XT fuori produzione.

Il motivo di questa strategia verso nVidia ed Ati non è difficile da capire: togliendo dal mercato 5900XT e 5950 Ultra e 9800 Pro e 9800XT.....le schede NV40 e R420 che già di loro sono un bel po' più potenti di queste...faranno ancora una maggior figura rispetto alle schede di fascia media: 5700 Ultra e 9600XT (che resteranno ancora sul mercato per un po' di tempo).

Dark Schneider
05-04-2004, 21:39
Originariamente inviato da Norbrek™
Fate venire voglia anche a me!!!
Ma devo resistere, questa generazione la salto, spero di non farmi sopraffare dai numeroni che vedrò nei bench:sofico:


Ti consiglio di resistere Norbrek....come ho fatto io.
Sennò poi ti viene la droga di cambiare scheda troppo di frequente!!:D
Schede come 9800 Pro e 5900XT a quei prezzi m'hanno tirato un sacco....ma son riuscito a resistere per prendere la scheda di generazione che avevo pianificato nel lontano 2002.:D

KenMasters
05-04-2004, 21:40
Originariamente inviato da Dark Schneider
Io consiglio a chi vuole prendersi sta scheda di prenderla adesso o al massimo appena verrà lanciata NV40.

D'altronde anche Ati farà sicuramente lo stesso: 9800 Pro e XT fuori produzione.

Il motivo di questa strategia verso nVidia ed Ati non è difficile da capire: togliendo dal mercato 5900XT e 5950 Ultra e 9800 Pro e 9800XT.....le schede NV40 e R420 che già di loro sono un bel po' più potenti di queste...faranno ancora una maggior figura rispetto alle schede di fascia media: 5700 Ultra e 9600XT (che resteranno ancora sul mercato per un po' di tempo).


Ehehehe ovviamente chi ci rimette sono sempre gli acquirenti... Cornuti e bastonati :D

MuadDibb
05-04-2004, 21:46
Ragazzi, domani parto per la Germania e ci sto fino al 15... che dite, riesco a trovare le NV40??? Beh, se ci riesco ne compro una dozzina e ve le porto!!! :D :D :D

A parte gli scherzi, mi ricollego ai ragionamenti sui prezzi: se esce le versione liscia a 300-350 € la prendo senza pensarci su troppo!! A quel prezzo sarebbe un mega prezzo... ( Aho' ma il Corsini non si fa piu' sentire!! NON E'CHE STA GIOCANDO CON LA NV40 A HALF-LIFE2 uscito appositamente per lui???)))

Onori a voi... :p

Dark Schneider
05-04-2004, 21:46
Originariamente inviato da KenMasters
Ehehehe ovviamente chi ci rimette sono sempre gli acquirenti... Cornuti e bastonati :D


Purtroppo guarda anche la RoadMap Ati: stessa cosa che vuol fare nVidia: R420 ultima GPU AGP 8X. Le altre...PCI Express.

http://www.gzeasy.com/newsphoto/y2k4/03/24/ati.jpg

Dark Schneider
05-04-2004, 21:51
Originariamente inviato da MuadDibb
Ragazzi, domani parto per la Germania e ci sto fino al 15... che dite, riesco a trovare le NV40??? Beh, se ci riesco ne compro una dozzina e ve le porto!!! :D :D :D

A parte gli scherzi, mi ricollego ai ragionamenti sui prezzi: se esce le versione liscia a 300-350 € la prendo senza pensarci su troppo!! A quel prezzo sarebbe un mega prezzo... ( Aho' ma il Corsini non si fa piu' sentire!! NON E'CHE STA GIOCANDO CON LA NV40 A HALF-LIFE2 uscito appositamente per lui???)))

Onori a voi... :p


Guarda secondo me come ho detto sopra la versione liscia stare dai 350 euro fino ai 400 euro (max). Non di più. Ma la versione da 256 MB.

Secondo me è probabile che ci sia una scheda NV40 liscia da 128 MB che al massimo potrà costare 300 euro. Cioè lo deduco un po' dal cartello di indicazioni di MSI presente al Cebit in cui tra le caratteristiche NON sotto NDA era scritto: 128 MB/256 MB. Voglio dire: NV40 può essere anche super nuovo come chip video.....ma se c'è una versione da 128 MB...una scheda da 128 MB non possono più farla costare tantissimo.

Ma io personalmente non andrò su una tale versione, ma su quella da 256 MB.

Dark Schneider
05-04-2004, 21:55
Originariamente inviato da MuadDibb
Ragazzi, domani parto per la Germania e ci sto fino al 15... che dite, riesco a trovare le NV40??? Beh, se ci riesco ne compro una dozzina e ve le porto!!! :D :D :D

A parte gli scherzi, mi ricollego ai ragionamenti sui prezzi: se esce le versione liscia a 300-350 € la prendo senza pensarci su troppo!! A quel prezzo sarebbe un mega prezzo... ( Aho' ma il Corsini non si fa piu' sentire!! NON E'CHE STA GIOCANDO CON LA NV40 A HALF-LIFE2 uscito appositamente per lui???)))

Onori a voi... :p


Al Corsini e altri giornalisti europei hanno avuto alcuni problemi cmq sul ricevere i sample al contrario dei giornalisti americani e asiatici...che li hanno ricevuti. Cmq nVidia ha spedito un sample di NV40 al Corsini questa mattina e gli dovrebbe arrivare mercoledì. :)

Donagh
05-04-2004, 22:05
bene che ci vuole a prendere la piastra madre con il pci express??

io la piglio di certo.....

vedrò cosa scegliere tra i due futuri mostriciattoli:D

pigliero la top basta che non costi piu di 800 euro:cry:

KenMasters
05-04-2004, 22:09
Originariamente inviato da Donagh
bene che ci vuole a prendere la piastra madre con il pci express??

io la piglio di certo.....

vedrò cosa scegliere tra i due futuri mostriciattoli:D

pigliero la top basta che non costi piu di 800 euro:cry:


Sborone MODE ON..

Direi che l'avatar di mendo shutaro ti calza davvero a pennello. :sofico:

ATi7500
05-04-2004, 22:10
Originariamente inviato da Donagh
pigliero la top basta che non costi piu di 800 euro:cry:

un milione e seicentomila lire....

:cry:


bYeZ!

Dark Schneider
05-04-2004, 22:11
Originariamente inviato da ATi7500
un milione e seicentomila lire....

:cry:


bYeZ!


Ehm.....ma come mai la 9800 non è più coming soon?

ATi7500
05-04-2004, 22:16
Originariamente inviato da Dark Schneider
Ehm.....ma come mai la 9800 non è più coming soon?
m han quasi licenziato da CD...
per un ritardo e altre cazzate....

secondo me gli stanno andando male gli affari la dentro... :cry:


bYeZ!

Dark Schneider
05-04-2004, 22:22
Originariamente inviato da ATi7500
m han quasi licenziato da CD...
per un ritardo e altre cazzate....

secondo me gli stanno andando male gli affari la dentro... :cry:


bYeZ!


Azzzz!! Mi spiace!! :(

Koji
05-04-2004, 23:56
Originariamente inviato da KenMasters
E soprattutto le nuove schede di fascia media saranno tutte pci express, quando ancora ci sono persone che non sanno nemmeno di cosa si tratta. Possibile che bisogna per forza spendere 500 euro per avere una geforce 6xxx? Credo che togliere la 5900 xt dal mercato sia la mossa più sbagliata che nvidia possa fare, perche SICURAMENTE la 5700 ultra con dd3 non arriverà mai alle prestazioni della XT.

Ma infatti è quello che mi chiedevo anch'io, e una 6800XT avrebbe risolto i miei problemi e i miei dubbi.

Adesso, io stavo aspettando di vedere prestazioni e prezzi delle nuove schede video, ma sinceramente spendere 350-400 euro per una scheda video, per quanto fantasmagorica sia, non me lo posso permettere.
Pensavo...vabbè se Nv40 liscio costa troppo, vorrà dire che mi accontenterò di una 5900XT, poi tra un anno il pci-x sarà standardizzato e mi compro il pc nuovo...invece no, perchè sembra che le 5900XT saranno ritirate a brevissimo!!!!

Quindi, o mi tengo la 4200 e me la faccio durare finchè non cambio il pc (e doom 3, HL2?);
o mi compro la 5900XT domani, ma volevo prima rendermi conto della differenza con nV40!!!;
infine potrei mai pensare di dissanguarmi per una mega scheda video che con l'avvento del pci-x non avrà per forza di cose vita lunga nel mio pc?


Comincio a sentirmi in un tunnel senza uscita. :muro: :(

Thunder82
06-04-2004, 00:06
Originariamente inviato da Koji
Ma infatti è quello che mi chiedevo anch'io, e una 6800XT avrebbe risolto i miei problemi e i miei dubbi.

Adesso, io stavo aspettando di vedere prestazioni e prezzi delle nuove schede video, ma sinceramente spendere 350-400 euro per una scheda video, per quanto fantasmagorica sia, non me lo posso permettere.
Pensavo...vabbè se Nv40 liscio costa troppo, vorrà dire che mi accontenterò di una 5900XT, poi tra un anno il pci-x sarà standardizzato e mi compro il pc nuovo...invece no, perchè sembra che le 5900XT saranno ritirate a brevissimo!!!!

Quindi, o mi tengo la 4200 e me la faccio durare finchè non cambio il pc (e doom 3, HL2?);
o mi compro la 5900XT domani, ma volevo prima rendermi conto della differenza con nV40!!!;
infine potrei mai pensare di dissanguarmi per una mega scheda video che con l'avvento del pci-x non avrà per forza di cose vita lunga nel mio pc?


Comincio a sentirmi in un tunnel senza uscita. :muro: :(

Stesso problema che avevo io a dicembre... ho preso la 9600XT ed è passata la paura! :D

Poi cambiarò tutta la baracca a inizio 2005, quando gli standard saranno affermati (athlon64 socket 939, PCI express, (btx?), ddr2...). Per il 2004 non prenderò niente, a parte forse altri 512MB di ram.

Dark Schneider
06-04-2004, 00:08
Originariamente inviato da Koji
Ma infatti è quello che mi chiedevo anch'io, e una 6800XT avrebbe risolto i miei problemi e i miei dubbi.

Adesso, io stavo aspettando di vedere prestazioni e prezzi delle nuove schede video, ma sinceramente spendere 350-400 euro per una scheda video, per quanto fantasmagorica sia, non me lo posso permettere.
Pensavo...vabbè se Nv40 liscio costa troppo, vorrà dire che mi accontenterò di una 5900XT, poi tra un anno il pci-x sarà standardizzato e mi compro il pc nuovo...invece no, perchè sembra che le 5900XT saranno ritirate a brevissimo!!!!

Quindi, o mi tengo la 4200 e me la faccio durare finchè non cambio il pc (e doom 3, HL2?);
o mi compro la 5900XT domani, ma volevo prima rendermi conto della differenza con nV40!!!;
infine potrei mai pensare di dissanguarmi per una mega scheda video che con l'avvento del pci-x non avrà per forza di cose vita lunga nel mio pc?


Comincio a sentirmi in un tunnel senza uscita. :muro: :(


Se tu prevedi di cambiare in un tempo non lontano tutto il pc non ti conviene NV40. NV40 sarà una scheda-bolide che fa stare tranquilli per 2 anni minimo. Infatti io non cambio sistema nel giro di breve tempo e nemmeno per il 2005.
Cmq ragà vi consiglio di aspettare la presentazione di NV40, così sarà chiara anche la Gamma nVidia. Ripeto se c'è anche una versione da 128 MB IMHO non potrà costare moltissimo.

Cmq saranno ritirate a brevissimo le 5900XT.......ma penso per un mese e mezzo almeno si troverà tranquillamente.

Donagh
06-04-2004, 00:16
il mondo delle schede video o meglio dei pc è un tunnel senza uscita , piu frame il gioco non va ok cambio, cambio , cambio , cambio.... che bello va il 3 % in piu.....

se avessi soldoni cambierei troppo spesso vaaaaaaaaaaa



ci spendo anche troppo in ste coseeeeeeeeee



o Ken Masters conosci il personaggio.. sisi il motivo era quello ma tempi fa ,,, ora i miei possedimenti sono piu limitati,,,,,

ATi7500
06-04-2004, 00:19
Originariamente inviato da Dark Schneider
Se tu prevedi di cambiare in un tempo non lontano tutto il pc non ti conviene NV40. NV40 sarà una scheda-bolide che fa stare tranquilli per 2 anni minimo. Infatti io non cambio sistema nel giro di breve tempo e nemmeno per il 2005.
Cmq ragà vi consiglio di aspettare la presentazione di NV40, così sarà chiara anche la Gamma nVidia. Ripeto se c'è anche una versione da 128 MB IMHO non potrà costare moltissimo.

Cmq saranno ritirate a brevissimo le 5900XT.......ma penso per un mese e mezzo almeno si troverà tranquillamente.

tu dici ke la prossima generazione sia ATi ke nVidia sarà tutta su agp tranne qualche modello in pci express magari per la fascia media?
c saranno prodotti d fascia media su agp?


bYeZ!

Thunder82
06-04-2004, 00:25
Originariamente inviato da ATi7500
tu dici ke la prossima generazione sia ATi ke nVidia sarà tutta su agp tranne qualche modello in pci express magari per la fascia media?
c saranno prodotti d fascia media su agp?


bYeZ!

La fascia media e bassa sarà completamente su PCI-express.

Per quanto riguarda la fascia alta:
NV40 (fascia alta) solo AGP; NV45 solo PCI-express

R420 (fascia alta) solo agp; R423 PCI-express

Quindi se uno vuole una scheda di fascia media con AGP deve prenderla adesso altrimenti deve cambiare sistema... (si troveranno cmq penso alcune schede della generazione attuale in agp, ma saranno le solite boiate tipo 9600se o 9200se...) :)

Dark Schneider
06-04-2004, 00:31
Originariamente inviato da ATi7500
tu dici ke la prossima generazione sia ATi ke nVidia sarà tutta su agp tranne qualche modello in pci express magari per la fascia media?
c saranno prodotti d fascia media su agp?


bYeZ!


Purtroppo temo di no. Credo che le ultime due schede video nuove AGP saranno NV40 e R420. Nel senso che Ati e nVidia lanceranno la fascia medio e bassa più in là di NV40 e R420...e saranno Pci Express. In realtà penso che dipende anche dalla domanda di Pci Express. Magari se non sarà elevata sarà possibile avere qlc fascia media ancora AGP. In realtà non dovrebbe essere elevata, ma forse nVidia ed Ati se non sarà elevata continueranno per un tempo con le 9600xt e 5700 Ultra.

KenMasters
06-04-2004, 00:36
Originariamente inviato da Donagh
il mondo delle schede video o meglio dei pc è un tunnel senza uscita , piu frame il gioco non va ok cambio, cambio , cambio , cambio.... che bello va il 3 % in piu.....

se avessi soldoni cambierei troppo spesso vaaaaaaaaaaa



ci spendo anche troppo in ste coseeeeeeeeee



o Ken Masters conosci il personaggio.. sisi il motivo era quello ma tempi fa ,,, ora i miei possedimenti sono piu limitati,,,,,


E chi se lo scorda LAMU la ragazza venuta dallo spazio :D.. heheh bei tempi quelli

Dark Schneider
06-04-2004, 02:07
Ragazzi prima di andare a nanna volevo dare un consiglio a tutti quelli che non sanno cosa fare: non aspettate troppo. Fate una scelta, provate a pensare ai vostri upgrade, i tempi di upgrade e quindi a pianificarvi qlc. Ma non aspettate troppo tempo senza aver qlc di preciso in mente. Dopo l'immisisone di queste due schede prendete qualcosa. Avete intenzione di tenere il vostro Pc per un annetto e mezzo due? Prendetevi un bel NV40 o R420. Non potete spendere cifre enormi? Fiondatevi su una 5900XT e 9800 pro (attenzione quest'ultimo si sta rialzando di prezzo). Avete intenzione di cambiare il pc entro l'anno o ad inizio 2005? Prendetevi cmq una 5900XT tanto per fare un esempio.

Riflettete, pianificate e dopodichè agite. :)

Spero per voi che tra una settimana dopo la presentazione di NV40 si potrà fare maggior chiarezza.

ATi7500
06-04-2004, 02:12
Originariamente inviato da Dark Schneider
Ragazzi prima di andare a nanna volevo dare un consiglio a tutti quelli che non sanno cosa fare: non aspettate troppo. Fate una scelta, provate a pensare ai vostri upgrade, i tempi di upgrade e quindi a pianificarvi qlc. Ma non aspettate troppo tempo senza aver qlc di preciso in mente. Dopo l'immisisone di queste due schede prendete qualcosa. Avete intenzione di tenere il vostro Pc per un annetto e mezzo due? Prendetevi un bel NV40 o R420. Non potete spendere cifre enormi? Fiondatevi su una 5900XT e 9800 pro (attenzione quest'ultimo si sta rialzando di prezzo). Avete intenzione di cambiare il pc entro l'anno o ad inizio 2005? Prendetevi cmq una 5900XT tanto per fare un esempio.

Riflettete, pianificate e dopodichè agite. :)

Spero per voi che tra una settimana dopo la presentazione di NV40 si potrà fare maggior chiarezza.

buonanotte
cmq io tengo la 7500 :D doom3 c girerà in un modo o nell'altro :D
;)


bYeZ!

MuadDibb
06-04-2004, 07:29
Se la produzione di Schede Video in PCI-Express dovesse dipendere dalla richiesta allora credo proprio che le vedremo a fine 2004-inizio 2005 insieme alle stesse schede video su AGP 8X. Non credo che qualcuno adessoabbia già il PCI Express... suvvia!! Faranno come hanno sempre fatto: affiancare le nuove teconologie a quelle affermate da tempo!!! :O :O :O :D

midgar
06-04-2004, 07:48
ma e' vero che sta scheda fa 12000 e passa al 3dmark03?

R@nda
06-04-2004, 08:42
Originariamente inviato da midgar
ma e' vero che sta scheda fa 12000 e passa al 3dmark03?

Non in via ufficiale (poichè di ufficiale fino alla presentazione non c'è nulla).

Cmq....qualcosa di vero c'è perforza.

zerothehero
06-04-2004, 08:49
Originariamente inviato da midgar
ma e' vero che sta scheda fa 12000 e passa al 3dmark03?


così si vocifera....non vorrei fare lo snob ma è ininfluente il punteggio con quel benchmark.....:rolleyes: .....le prestazioni si misureranno con altri test...

giova22
06-04-2004, 09:07
Ma sei lo stesso zerotheero che fa i mod per morrowind?

zerothehero
06-04-2004, 09:40
Originariamente inviato da giova22
Ma sei lo stesso zerotheero che fa i mod per morrowind?


si.....:) ora però non moddo più..ho fatto l'npc replacer e altri mod quasi per gioco....e poi ha avuto un successo al di là di ogni aspettativa...:eek:

Dindi
06-04-2004, 11:03
Originariamente inviato da midgar
ma e' vero che sta scheda fa 12000 e passa al 3dmark03?

Mah io non sarei così sicuro. Vorrebbe dire che va il doppio della 5900!
Mi sembra un po' tanto!

Questa voce la prenderei con le pinze! io ci toglierei almeno 4000 punti.

Poi magari fa 12000. meglio! Ma fino alla presentazione preferirei pensare che ne faccia 8000, prima di ricevere una delusione.

halduemilauno
06-04-2004, 11:30
Originariamente inviato da Dindi
Mah io non sarei così sicuro. Vorrebbe dire che va il doppio della 5900!
Mi sembra un po' tanto!

Questa voce la prenderei con le pinze! io ci toglierei almeno 4000 punti.

Poi magari fa 12000. meglio! Ma fino alla presentazione preferirei pensare che ne faccia 8000, prima di ricevere una delusione.


"io ci toglierei almeno 4000 punti."


:sofico: :rotfl:

cosworth6k
06-04-2004, 11:53
Originariamente inviato da Dindi
Mah io non sarei così sicuro. Vorrebbe dire che va il doppio della 5900!
Mi sembra un po' tanto!

Questa voce la prenderei con le pinze! io ci toglierei almeno 4000 punti.

Poi magari fa 12000. meglio! Ma fino alla presentazione preferirei pensare che ne faccia 8000, prima di ricevere una delusione.

La scheda al 3dmark potrà fare anche 2 milioni di punti grazie ai "miracolosi drivers nvidia" :sofico: poi nei giochi sappiamo tutti come è andata a finire. (nv3x e derivati) :p :rolleyes:

halduemilauno
06-04-2004, 11:55
http://www.anandtech.com/video/showdoc.html?i=2018
;)

R@nda
06-04-2004, 12:09
Originariamente inviato da cosworth6k
La scheda al 3dmark potrà fare anche 2 milioni di punti grazie ai "miracolosi drivers nvidia" :sofico: poi nei giochi sappiamo tutti come è andata a finire. (nv3x e derivati) :p :rolleyes:

Non ci credi nemmeno tu a quello che stai dicendo....

Koji
06-04-2004, 12:14
Originariamente inviato da Dark Schneider
Ragazzi prima di andare a nanna volevo dare un consiglio a tutti quelli che non sanno cosa fare: non aspettate troppo. Fate una scelta, provate a pensare ai vostri upgrade, i tempi di upgrade e quindi a pianificarvi qlc. Ma non aspettate troppo tempo senza aver qlc di preciso in mente. Dopo l'immisisone di queste due schede prendete qualcosa. Avete intenzione di tenere il vostro Pc per un annetto e mezzo due? Prendetevi un bel NV40 o R420. Non potete spendere cifre enormi? Fiondatevi su una 5900XT e 9800 pro (attenzione quest'ultimo si sta rialzando di prezzo). Avete intenzione di cambiare il pc entro l'anno o ad inizio 2005? Prendetevi cmq una 5900XT tanto per fare un esempio.

Riflettete, pianificate e dopodichè agite. :)

Spero per voi che tra una settimana dopo la presentazione di NV40 si potrà fare maggior chiarezza.


:flower: :mano:

cosworth6k
06-04-2004, 12:37
Originariamente inviato da R@nda
Non ci credi nemmeno tu a quello che stai dicendo....

Se lo dici tu..........

Sbaglio o le fx in aquamark3 "massacrano" le ati? mentre nei giochi dx 9 arrancano e non poco?

Quello che voglio dire è che la scheda DEVE rullare nei giochi NON NEI BENCH! ;)

pon 87
06-04-2004, 12:38
Originariamente inviato da Dark Schneider
AHahah...la voglia di NV40 prevale!!!:sofico:
esatto l'nV40 dovrebbe essere un mostro e lo spero caldamente:cool: :D

Norbrek™
06-04-2004, 13:49
Originariamente inviato da cosworth6k
Se lo dici tu..........

Sbaglio o le fx in aquamark3 "massacrano" le ati? mentre nei giochi dx 9 arrancano e non poco?

Quello che voglio dire è che la scheda DEVE rullare nei giochi NON NEI BENCH! ;)
Quotissimo:sofico:

R@nda
06-04-2004, 14:01
Non mi sembra che chi ha una FX non stia giocando come si deve.
E poi,si parla di Nv40.

Non vedete l'ora che vada male eh?

Bah...

Dindi
06-04-2004, 14:03
Originariamente inviato da halduemilauno
"io ci toglierei almeno 4000 punti."


:sofico: :rotfl:

:confused: :stordita:

ATi7500
06-04-2004, 14:05
Originariamente inviato da Dindi
:confused: :stordita:

praticamente s kiedeva su ke basi dicevi qll ke hai detto


bYeZ!

halduemilauno
06-04-2004, 14:10
Originariamente inviato da ATi7500
praticamente s kiedeva su ke basi dicevi qll ke hai detto


bYeZ!


esatto.
;)

Dindi
06-04-2004, 15:24
semplicemente perchè fin'ora non ho mai visto che il modello successivo di una scheda vada il doppio di quello precedente.

Ora sapendo che la 5900 ultra si aggira intorno ai 6000 punti al 3d mark 2k3 penso che l'nv40 si aggirerà intorno agli 8000. Penso io, non ho letto niente, la mia è solo una supposizione.

ma che vada il doppio della 5900 mi sembra forse un po' eccessivo. Per carità, se lo è, tanto di guadagnato. Sarei contento anche io!!
Ma preferisco non farmi illusioni, altrimenti poi se non corrisponde con le proprie illusioni, si rimane delusi, sempre secondo il mio parere.

Oh se mi sono sbagliato chiedo scusa!

dwfgerw
06-04-2004, 15:32
Originariamente inviato da Dindi
semplicemente perchè fin'ora non ho mai visto che il modello successivo di una scheda vada il doppio di quello precedente.

Ora sapendo che la 5900 ultra si aggira intorno ai 6000 punti al 3d mark 2k3 penso che l'nv40 si aggirerà intorno agli 8000. Penso io, non ho letto niente, la mia è solo una supposizione.

ma che vada il doppio della 5900 mi sembra forse un po' eccessivo. Per carità, se lo è, tanto di guadagnato. Sarei contento anche io!!
Ma preferisco non farmi illusioni, altrimenti poi se non corrisponde con le proprie illusioni, si rimane delusi, sempre secondo il mio parere.

Oh se mi sono sbagliato chiedo scusa!

quoto, credo che molto probabilmente i 10k si toccheranno ma è meglio aspettare il 14.
Anche sta storie delle 16 pipes mi auguro sia vera, ma nvidia fino ad oggi non ha detto niente, sono solo siti tipo the inquirer che parlano quindi.....
Comunque nell'aria c'e' qualcosa di grosso e questo è innegabile, tutti i siti che ho letto italiani e stranieri che hanno visto all'opera sia R420 e che nv 40 al cebit (tanto per citarne due italiani hardware4you e hardwareirc.com) le parole più lodevoli sono andate alla nuova gpu di nvidia, di ati non hanno detto quasi niente come se ne fossero rimasti quasi delusi (anche se forse delusi è una parola grossa ma non dimentichiamo che R420 alla fine ricalcherà molto R3X0 mentre nvidia con nv40 ha fatto qualcosa di nuovo).

Vediamo!

^TiGeRShArK^
06-04-2004, 16:15
ma mispiegate una cosa?
come mai nei filmati x gli sviluppatori dedicati a nv40 (in particolare nell' HDR) si parla ancora di FP16? possibile ke ancora neanke nv40 riesca a gestire con prestazioni decenti gli FP 32???

ATi7500
06-04-2004, 16:20
Originariamente inviato da ^TiGeRShArK^
ma mispiegate una cosa?
come mai nei filmati x gli sviluppatori dedicati a nv40 (in particolare nell' HDR) si parla ancora di FP16? possibile ke ancora neanke nv40 riesca a gestire con prestazioni decenti gli FP 32???

mmm hai colto un aspetto molto importante...
in effetti sia fek ke yossarian predicevano ke la full precision 32 bit sarebbe stato un traguardo molto difficile da raggiungere, soprattutto considerando la potenza delle skede attuali...
da dire ke la qualità di visualizzazione delle scene 3d subirà un vero e proprio balzo in avanti grazie all'FP32, insomma nn è solo un numero ke cambia, come siamo abituati a vedere (purtroppo) ancora oggi...
quindi secondo me nn deve stupire ke nv40 riesca a lavorare con prestazioni sufficienti sl in half precision o quanto meno con degli accorgimenti ke tendano a limitare al massimo l'utilizzo completo degli FP32...

tt qst IMHO ovviamente ;)


bYeZ!

Dark Schneider
06-04-2004, 17:03
Originariamente inviato da MuadDibb
Se la produzione di Schede Video in PCI-Express dovesse dipendere dalla richiesta allora credo proprio che le vedremo a fine 2004-inizio 2005 insieme alle stesse schede video su AGP 8X. Non credo che qualcuno adessoabbia già il PCI Express... suvvia!! Faranno come hanno sempre fatto: affiancare le nuove teconologie a quelle affermate da tempo!!! :O :O :O :D

Si ma scordati che faranno nuove GPU con pettine AGP. Le ultime saranno NV40 e R420. Poi per la fascia media e bassa (quelle che vendono di più) se continueranno con l'AGP oltre al PCI Express.....semplicemente continueranno a produrre per un più lungo tempo le soluzioni medio e basse attuali. Ma nuove direi proprio di no.

Dark Schneider
06-04-2004, 17:05
Originariamente inviato da R@nda
Non in via ufficiale (poichè di ufficiale fino alla presentazione non c'è nulla).

Cmq....qualcosa di vero c'è perforza.


Può pure essere cmq che le nuove schede fanno simili punteggi. Alla fine ricordo le GF3 al 2001 facevano 7000.....le GeForce 4 Ti sui 11000-12000. Quindi può essere che alla fine saranno quelli bene o male i punteggi.

Dark Schneider
06-04-2004, 17:10
Originariamente inviato da cosworth6k
La scheda al 3dmark potrà fare anche 2 milioni di punti grazie ai "miracolosi drivers nvidia" :sofico: poi nei giochi sappiamo tutti come è andata a finire. (nv3x e derivati) :p :rolleyes:


Infatti nei giochi le schede nVidia vanno bene. Alla faccia del 3d mark e alle sue critiche iniziali (su cui molta gente ne ha approfittato per sparare a zero quando son schede che fanno giocare bene).

Dark Schneider
06-04-2004, 17:13
Originariamente inviato da ^TiGeRShArK^
ma mispiegate una cosa?
come mai nei filmati x gli sviluppatori dedicati a nv40 (in particolare nell' HDR) si parla ancora di FP16? possibile ke ancora neanke nv40 riesca a gestire con prestazioni decenti gli FP 32???


Da come dice Fek...pare che la generazione dopo gestiranno veramente bene l'FP32.

Cmq staremo a vedere.

Dark Schneider
06-04-2004, 17:15
Originariamente inviato da dwfgerw
quoto, credo che molto probabilmente i 10k si toccheranno ma è meglio aspettare il 14.
Anche sta storie delle 16 pipes mi auguro sia vera, ma nvidia fino ad oggi non ha detto niente, sono solo siti tipo the inquirer che parlano quindi.....
Comunque nell'aria c'e' qualcosa di grosso e questo è innegabile, tutti i siti che ho letto italiani e stranieri che hanno visto all'opera sia R420 e che nv 40 al cebit (tanto per citarne due italiani hardware4you e hardwareirc.com) le parole più lodevoli sono andate alla nuova gpu di nvidia, di ati non hanno detto quasi niente come se ne fossero rimasti quasi delusi (anche se forse delusi è una parola grossa ma non dimentichiamo che R420 alla fine ricalcherà molto R3X0 mentre nvidia con nv40 ha fatto qualcosa di nuovo).

Vediamo!


Quoto! ;)

zerothehero
06-04-2004, 18:03
Originariamente inviato da Dark Schneider
Da come dice Fek...pare che la generazione dopo gestiranno veramente bene l'FP32.

Cmq staremo a vedere.


fp32...cosa è : floating point a 32bit? o è riferito agli shader 3.0?

checo
06-04-2004, 19:01
Originariamente inviato da cosworth6k
La scheda al 3dmark potrà fare anche 2 milioni di punti grazie ai "miracolosi drivers nvidia" :sofico: poi nei giochi sappiamo tutti come è andata a finire. (nv3x e derivati) :p :rolleyes:

fattosta miracolosi driver o no che va il doppio di una 5900 se le cose stanno così.
:rolleyes:
ora a me non sambra che una 5900 vada piano certo te sei abituato a chissà che però la 5900 è una scheda di fascia alta.

checo
06-04-2004, 19:05
Originariamente inviato da Dark Schneider
Infatti nei giochi le schede nVidia vanno bene. Alla faccia del 3d mark e alle sue critiche iniziali (su cui molta gente ne ha approfittato per sparare a zero quando son schede che fanno giocare bene).

per spalare merda ci ha pensato bene anche hl2
poi ati propose tale favoloso gioco in bundle con le xt
e poi si ca some è andata a finire con ste dx9

Norbrek™
06-04-2004, 19:10
Originariamente inviato da zerothehero
fp32...cosa è : floating point a 32bit? o è riferito agli shader 3.0?
La precisione a 32bit dei calcoli in virgola mobile..

cosworth6k
06-04-2004, 19:16
Originariamente inviato da checo
fattosta miracolosi driver o no che va il doppio di una 5900 se le cose stanno così.
:rolleyes:
ora a me non sambra che una 5900 vada piano certo te sei abituato a chissà che però la 5900 è una scheda di fascia alta.

Non è questione di essere abituati a chissà che o cose del genere,prova a giocare a far cry prima con la 5900 e poi la 9800 pro e poi fammi sapere (io l'ho fatto ;) ).

Detto questo state travisando completamente le mie parole.

Mettiamola così:avrei preferito sapere come si comporta la scheda con i giochi più recenti piuttosto che avere il risultato di 3dmark 2003.
Spero che nv40 si riveli un 'ottima scheda visto e considerato che probabilmente sarà la prossima ad entrare nel mio case.

checo
06-04-2004, 19:19
Originariamente inviato da cosworth6k
Non è questione di essere abituati a chissà che o cose del genere,prova a giocare a far cry prima con la 5900 e poi la 9800 pro e poi fammi sapere (io l'ho fatto ;) ).



guarda sempre con le mani avanti si diceva che r420 facesse 10000 e nv40 12000 vero o no, credo che l'incremento tra nv35 e nv40 sarà maggiore in tutte le situazioni di quello tra 9800 e r420.

le die scede magari alla fine andranno uguali in farcry chi lo sa, cmq ci sarà un bel boost lato nvidia.

Dindi
06-04-2004, 23:31
penso anche io che l'nv40 avrà un bel boost! Soprattutto perchè, penso, che nvidia vorrà mostrare di non aver perso la battaglia contro ati e quindi in questo caso avrà voluto sviluppare una bella scheda per battere la ati e riprendersi un po' del prestigio perso.
Ovviamente anche ati sa che nvidia non vorrà fare il mezzo passo falso con l'nv30 e quindi anche lei si preparerà con una scheda potente in grado di contrastare l'nv40 per mantenere quel margine di distacco che ha un po' guadagnato.

Ovviamente questo è il mio pensiero!:D

Koji
07-04-2004, 10:30
Buongiorno Nv40iani!!! :D

Siamo a -6!!!! :oink:



Ma seconddo voi esteticamente questa 6800 sarà molto somigliante alla 5950Ultra? Ovvero turbina Fx, doppio slot pci, 1 molex di alimentazione, stessa disposizione memorie, oppure ci sarà una soluzione innovativa (che non ho idea di quale possa essere)? :p

halduemilauno
07-04-2004, 11:40
Originariamente inviato da Koji
Buongiorno Nv40iani!!! :D

Siamo a -6!!!! :oink:



Ma seconddo voi esteticamente questa 6800 sarà molto somigliante alla 5950Ultra? Ovvero turbina Fx, doppio slot pci, 1 molex di alimentazione, stessa disposizione memorie, oppure ci sarà una soluzione innovativa (che non ho idea di quale possa essere)? :p


-7.
l'NDA scade il 14 ore 12(Roma).
ciao.

;)

Dark Schneider
07-04-2004, 12:26
Il Corsini ha dato cmq un suo parere: con NV40 non si ripeterà la storia di NV30. Io non so quale sarà più prestante tra NV40 e R420 però in ogni caso NV40 sarà un ottimo prodotto!! :)

dwfgerw
07-04-2004, 13:15
Originariamente inviato da Koji
Buongiorno Nv40iani!!! :D

Siamo a -6!!!! :oink:



Ma seconddo voi esteticamente questa 6800 sarà molto somigliante alla 5950Ultra? Ovvero turbina Fx, doppio slot pci, 1 molex di alimentazione, stessa disposizione memorie, oppure ci sarà una soluzione innovativa (che non ho idea di quale possa essere)? :p


secondo quanto circa in rete i molex (almeno per l'agp) saranno due (uno per l'alimentazione delle memorie e uno per la gpu) in pci-e dovrebbe essere uno solo.

Il dissipatore sarà molto simile a quello adottato dalla 5950 ovvero un flow fx (però questa volta potrebbero usare un sistema heat pipe) con rumore molto contenuto intorno ai 20/25db come accade oggi con la 5950, non certo i 50db della 5800Ultra;)

Castec
07-04-2004, 13:22
Con le schede video attuali nessuno ha mai fatto un bench con farcry?

Cifer
07-04-2004, 13:23
http://www.theinquirer.net/?article=15210

Nulla di nuovo, se non per la "presunta conferma" dei 2 molex, e delle "presunte" (ma ormai quasi assodate) ottime prestazioni.
Credo che i 2 molex siano necessari per la sezione standard dei fili inerentemente al carico di corrente, + che per la distinta alimentazione di core e memoria.

Dark Schneider
07-04-2004, 13:33
Si un po' fa paura sto fatto dell'alimentazione!!

Cifer
07-04-2004, 14:14
Da quando c'è stato il briefing a porte chiuse "alcuni" dicono che nv40 abbia preso molto dal "Rampage" (ammesso che sia mai esistito), i cui progetti e diritti sarebbero stati nuovamente acquistati da Nvidia.
Personalmente la trovo una grossa bufala, la riporto solo perchè gira nella sezione tecnica di beyond.
Altri dicono che la rivoluzione architetturale sarebbe la TBDR (Tile based deferred rendering), un'evoluzione del sistema introdotto da power VR e che sarebbe stato lo stesso "teorico" del rampage(lo deduco da quello che ho letto, assolutamente non per "accertato"). Cioè la divisione in griglia dell'imagine da renderizzare, al fine di elaborare e depositare nel buffer solo i dati sulle mattonelle della griglia che risultino in primo piano, così da tagliare drasticamente il computo dei calcoli geometrici (che comunque in grandissima parte ancora ricade sulla cpu, differentemente dal motore utilizzato, ma comunque in misura + o - direttamente proporzionale al realismo del motore stesso, almeno fino ad oggi...).

Non so quali siano esattamente gli schemi della logica di funzionamento degli attuali HSR, sia Nvidia che Ati, ma presumo che la compressione sull'asse Z già per le attuali tecnologie vada ben oltre l'ormai vetusto, quanto all'epoca innovativo TBDR.

Io continuo a credere che si tratti di qualcosa tipo un 8x2 con 2 fparray.
Il 32x0, dato di per se insensato visto che il risultato per passata sarebbe 0, credo indichi l'enorme risparmio di flusso di dati, in alcune condizioni pari al doppio (in realtà se ne risparmierebbe la metà) per clock in determinate condizioni, oltre al risparmio che ne deriverebbe per il mancato calcolo a carico della texture unit o vertex unit a seconda del caso(se la compressione riguarda o il colore o il vertex) ed il relativo intasamento dei registri temporanei che ne deriverebbe.
Quindi un'enorme risparmio di banda unito a 2 vertex unit di tipo complesso (fparray appunto) che hanno accesso a dei registri temporanei meno stressati, quindi una capacità in megaverts teoricamente molto alta(il doppio di nv35 cui andrebbe sommata anche la maggiore efficienza delle unità a causa del minor ricorso ai registri).

Non sono nemmeno sicuro di aver capito quello che ho scritto, perciò non vuole essere altro che un pensiero, IMHO.:D

Dark Schneider
07-04-2004, 14:27
Non penso che ci sia del Rampage in NV40.

Io resto ancora con i piedi per terra con NV40 ad 8 Pipeline. Se poi ne avrà 16 meglio ancora.

Dindi
07-04-2004, 14:33
hey ma il Corsini non dovrebbe essere già tornato?

:confused:

yossarian
07-04-2004, 14:33
Originariamente inviato da Cifer
Da quando c'è stato il briefing a porte chiuse "alcuni" dicono che nv40 abbia preso molto dal "Rampage" (ammesso che sia mai esistito), i cui progetti e diritti sarebbero stati nuovamente acquistati da Nvidia.
Personalmente la trovo una grossa bufala, la riporto solo perchè gira nella sezione tecnica di beyond.
Altri dicono che la rivoluzione architetturale sarebbe la TBDR (Tile based deferred rendering), un'evoluzione del sistema introdotto da power VR e che sarebbe stato lo stesso "teorico" del rampage(lo deduco da quello che ho letto, assolutamente non per "accertato"). Cioè la divisione in griglia dell'imagine da renderizzare, al fine di elaborare e depositare nel buffer solo i dati sulle mattonelle della griglia che risultino in primo piano, così da tagliare drasticamente il computo dei calcoli geometrici (che comunque in grandissima parte ancora ricade sulla cpu, differentemente dal motore utilizzato, ma comunque in misura + o - direttamente proporzionale al realismo del motore stesso, almeno fino ad oggi...).

Non so quali siano esattamente gli schemi della logica di funzionamento degli attuali HSR, sia Nvidia che Ati, ma presumo che la compressione sull'asse Z già per le attuali tecnologie vada ben oltre l'ormai vetusto, quanto all'epoca innovativo TBDR.

Io continuo a credere che si tratti di qualcosa tipo un 8x2 con 2 fparray.
Il 32x0, dato di per se insensato visto che il risultato per passata sarebbe 0, credo indichi l'enorme risparmio di flusso di dati, in alcune condizioni pari al doppio (in realtà se ne risparmierebbe la metà) per clock in determinate condizioni, oltre al risparmio che ne deriverebbe per il mancato calcolo a carico della texture unit o vertex unit a seconda del caso(se la compressione riguarda o il colore o il vertex) ed il relativo intasamento dei registri temporanei che ne deriverebbe.
Quindi un'enorme risparmio di banda unito a 2 vertex unit di tipo complesso (fparray appunto) che hanno accesso a dei registri temporanei meno stressati, quindi una capacità in megaverts teoricamente molto alta(il doppio di nv35 cui andrebbe sommata anche la maggiore efficienza delle unità a causa del minor ricorso ai registri).

Non sono nemmeno sicuro di aver capito quello che ho scritto, perciò non vuole essere altro che un pensiero, IMHO.:D



:eek: :sborone:

:D

halduemilauno
07-04-2004, 14:36
Originariamente inviato da Dark Schneider
Non penso che ci sia del Rampage in NV40.

Io resto ancora con i piedi per terra con NV40 ad 8 Pipeline. Se poi ne avrà 16 meglio ancora.


quando 3dfx ha chiuso il 15.12.2000 la sua tecnologia era forse valida per la primavera del 2001. a tre anni esatti di distanza ormai niente di tutto quello può ancora esser utile.
discorso diverso è cosa possono ancora dare gli ex di 3dfx che lavorano ora per nVidia.(nonche per ati).
per il resto vale quanto da te detto. piedi per terra e aspettiamo.
ciao.
;)

checo
07-04-2004, 14:37
Originariamente inviato da Cifer
Da quando c'è stato il briefing a porte chiuse "alcuni" dicono che nv40 abbia preso molto dal "Rampage"

scusa ma il rampage doveva essere concorrente del geforce 3 come pensi si possa adattare ad una seconda generazione dx9?

pandyno
07-04-2004, 14:44
Originariamente inviato da Cifer
Da quando c'è stato il briefing a porte chiuse "alcuni" dicono che nv40 abbia preso molto dal "Rampage" (ammesso che sia mai esistito)

http://www.3dfxzone.it/dir/3dfx/articoli/rampage.htm

;)

Per quanto riguarda le tecnologie 3dfx potremmo anche dire che sia i ragazzi andati a lavorare da nvidia sia quelli andati da ATI sicuramente non sono stati a girarsi i pollici ;)

ciaoz

pandyno
07-04-2004, 14:45
Originariamente inviato da checo
scusa ma il rampage doveva essere concorrente del geforce 3 come pensi si possa adattare ad una seconda generazione dx9?

Forse intendeva il tipo di architettura multichip...

cmq se gli shoot che girano in rete sono reali tanto di cappello; il degno erede dell' AA 3dfx.

checo
07-04-2004, 14:47
altra cosa il tbr alla kyro non è vetusto , solo che mal si adatta alle schede odierne.

gran cosa sarebbe se fosse stato implementato sunna gefroce 2 al posto del tl in modo tale da vedere l'effettiva potenza della secheda, pesantemente limitata dall banda delle memorie.
infatti un g2 ultra cloccato a 250mhz ha un fillrate uguale a quello di una 4200

checo
07-04-2004, 14:48
Originariamente inviato da pandyno
Forse intendeva il tipo di architettura multichip...

cmq se gli shoot che girano in rete sono reali tanto di cappello; il degno erede dell' AA 3dfx.

da quel che ho capito si riferiva al tipo di rendering .

Cifer
07-04-2004, 14:48
Originariamente inviato da checo
scusa ma il rampage doveva essere concorrente del geforce 3 come pensi si possa adattare ad una seconda generazione dx9?

Infatti non lo penso, e sopratutto non ho scritto di pensarlo, ciao.

pandyno
07-04-2004, 14:56
Originariamente inviato da checo
da quel che ho capito si riferiva al tipo di rendering .

Si scusa ho letto in fretta saltando qua e là...

Potrebbe anche essere, il rampage implementava un tipo di rendering simile al kyro da quel poco che ne sappiamo, sviluppato probabilmente in collaborrazione con gigapixel

Non è che parlare di 3dfx oggi significhi pensare allo SLI di 3 anni fa; significa pensare ad un AA perfezionato e probabilmente a quel tipo di rendering.

ciaoz

yossarian
07-04-2004, 15:05
Originariamente inviato da checo
altra cosa il tbr alla kyro non è vetusto , solo che mal si adatta alle schede odierne.

gran cosa sarebbe se fosse stato implementato sunna gefroce 2 al posto del tl in modo tale da vedere l'effettiva potenza della secheda, pesantemente limitata dall banda delle memorie.
infatti un g2 ultra cloccato a 250mhz ha un fillrate uguale a quello di una 4200


mi spiace, egregio senatore, ma stavolta devo contraddirla. Il TBR non solo si adatta molto bene alle odierne schede video, ma è stato anche utilizzato, sicuramente da ATi sull'R3x0 e, forse anche da NV sull'NV3x. Il metodo utilizzato da ATi è una variante di quello di PowerVR che comprende una prima fase con analisi front to back per poi passare al TBR vero e proprio per eliminare gli eventuali pixel residui prima del rendering.

checo
07-04-2004, 15:18
Originariamente inviato da yossarian
mi spiace, egregio senatore, ma stavolta devo contraddirla. Il TBR non solo si adatta molto bene alle odierne schede video, ma è stato anche utilizzato, sicuramente da ATi sull'R3x0 e, forse anche da NV sull'NV3x. Il metodo utilizzato da ATi è una variante di quello di PowerVR che comprende una prima fase con analisi front to back per poi passare al TBR vero e proprio per eliminare gli eventuali pixel residui prima del rendering.

se lo dici tu mi fido, io sapevo solo che power vr non aveva inplementato il tl sul kyro, perchè in contrasto con le altre tecnologie di risparmio banda, non che fosse impossibile, ma difficile.

yossarian
07-04-2004, 15:37
Originariamente inviato da checo
se lo dici tu mi fido, io sapevo solo che power vr non aveva inplementato il tl sul kyro, perchè in contrasto con le altre tecnologie di risparmio banda, non che fosse impossibile, ma difficile.


il reale problema era legato allo spazio interno; i chip del periodo non avevano un gran quantitativo di spazio nei buffer interni (il Kyro 2 era quello più dotato, però aveva un'architettura 2x1, piuttosto semplice); per poter effettuare TBR su chip 4x2 o 2x3 come GF2 e Radeon si sarebbe dovuto disporre di molto più spazio e le tecnologie di allora non permettevano di averlo; infatti si trattava di chip che eseguivano poche operazioni on chip, ricorrendo spesso al frame buffer (da qui la necessità di avere più TMU per pipeline, cosa di cui il Kyro non aveva bisogno).
Con i chip attuali, che al contrario di quelli, effettuano gran parte delle operazioni all'interno, l'utilizzo di un sistema di tipo tbr è, invece, una cosa quasi fisiologica.

La scelta di POwerVR era probabilmente dettata da altre ragioni: ad esempio una semplificazione dell'architettura del chip, la scelta di utilizzare lo spazio in maniera diversa e il fatto che il TBR non era una feature indispensabile per l'epoca, ma, più che altro, quasi una moda (per gli sviluppatori era soltanto un primo esperimento); probabilmente PowerVR contava di implementare il t&l in un secondo tempo, quando questo fosse arrivato alla seconda generazione (quella delle DX8) e, sicuramente, sarebbe tornato più utile. D'altra parte, anche in questa generazione, abbiamo visto che sia ATi che NV hanno rinunciato ad utilizzare alcune feature o ne hanno implementate altre con il minimo indispensabile di circuiti dedicati, sempre a causa di motivi di spazio (il discorso della coperta troppo corta che spinge a operare delle scelte).

KenMasters
07-04-2004, 16:13
http://www.digitimes.com/NewsShow/Article.asp?datePublish=2004/04/07&pages=A7&seq=43


:eek:


No comment.. :)

MaBru
07-04-2004, 16:17
Originariamente inviato da Dark Schneider
Non penso che ci sia del Rampage in NV40.

C'è c'è. Il capo ingegnere del progetto Rampage, tale Emmett Kilgariff, ha diretto lo sviluppo di buona parte dell'NV40. :)

MaBru
07-04-2004, 16:19
Originariamente inviato da Dindi
hey ma il Corsini non dovrebbe essere già tornato?

:confused:

Sta pregando in tutte le lingue che gli arrivi un sample in tempo utile per mettere online una rece per il 14. ;)

pandyno
07-04-2004, 16:27
Originariamente inviato da MaBru
C'è c'è. Il capo ingegnere del progetto Rampage, tale Emmett Kilgariff, ha diretto lo sviluppo di buona parte dell'NV40. :)

Interessante, fonte? :)

MaBru
07-04-2004, 16:33
Originariamente inviato da pandyno
Interessante, fonte? :)

http://www.beyond3d.com/forum/viewtopic.php?t=11309

dwfgerw
07-04-2004, 16:44
e che dice ?

dwfgerw
07-04-2004, 16:48
http://www.hardwareanalysis.com/content/article/1703/


nVoodoo.....

Dark Schneider
07-04-2004, 17:22
Originariamente inviato da KenMasters
http://www.digitimes.com/NewsShow/Article.asp?datePublish=2004/04/07&pages=A7&seq=43


:eek:


No comment.. :)

E' il classico prezzo della versione Ultra al lancio. :)
Ma io mi "accontento" della "liscia" che sicuramente costerà meno!!:)

checo
07-04-2004, 17:52
Originariamente inviato da MaBru
C'è c'è. Il capo ingegnere del progetto Rampage, tale Emmett Kilgariff, ha diretto lo sviluppo di buona parte dell'NV40. :)


fonte?

EDIT ho visto che c'era dopo

checo
07-04-2004, 17:55
Originariamente inviato da pandyno
Interessante, fonte? :)

che ci abbia lavorato sto tizio o un'altro che cambia?

Aren't we tired yet of the mythical theory that 3dfx staff had some special magic knowledge? If they did, why was rampage stuck in development hell for years?

dwfgerw
07-04-2004, 17:58
http://www.hardwareanalysis.com/content/article/1703/

Dark Schneider
07-04-2004, 18:01
Originariamente inviato da MaBru
C'è c'è. Il capo ingegnere del progetto Rampage, tale Emmett Kilgariff, ha diretto lo sviluppo di buona parte dell'NV40. :)

Può anche essere che qlc è stato ripreso dal Rampage ma applicandoci la tecnologia attuale.
Però non credo che il NV40 sia il Rampage.

pandyno
07-04-2004, 18:05
Originariamente inviato da checo
che ci abbia lavorato sto tizio o un'altro che cambia?

Aren't we tired yet of the mythical theory that 3dfx staff had some special magic knowledge? If they did, why was rampage stuck in development hell for years?

se l' hanno messo li evidentemente qualcosa sa fare ;)

Ho letto da poco un' intervista di un (ex) ingegnere 3dfx, il quale ammette apertamente che la strategia commerciale era ''soldi tanti investimenti pochi'' veniva anche ''confessato'' che i prodotti voodoo venivano usati ben oltre la loro reale vita tecnologica.

Chissà se sotto ATI e nvidia abbiano trovato il via libera; sogno.

pandyno
07-04-2004, 18:08
Originariamente inviato da Dark Schneider

Però non credo che il NV40 sia il Rampage.

Il rampage Esiste (leggi pochi post sopra) e chiaramente è impensabile paragonarlo a tanto, semplicemente avranno tirato avanti dei progetti (rivisitati) in modo da essere competitivi con le tecnologie attuali.
Insomma quegli screen che girano se sono veri parlano da soli ;)

checo
07-04-2004, 18:46
Originariamente inviato da pandyno
Il rampage Esiste (leggi pochi post sopra) e chiaramente è impensabile paragonarlo a tanto, semplicemente avranno tirato avanti dei progetti (rivisitati) in modo da essere competitivi con le tecnologie attuali.
Insomma quegli screen che girano se sono veri parlano da soli ;)

com'è che hai aperto un sito sulle 3dfx?

Dark Schneider
07-04-2004, 18:46
Originariamente inviato da pandyno
Il rampage Esiste (leggi pochi post sopra) e chiaramente è impensabile paragonarlo a tanto, semplicemente avranno tirato avanti dei progetti (rivisitati) in modo da essere competitivi con le tecnologie attuali.
Insomma quegli screen che girano se sono veri parlano da soli ;)


Certo infatti gli screen FSAA 4X e AF 4X (e chissà se si imposta di più comè) sono impressionanti.
Può essere che appunto hanno ripreso delle tecnologie del Rampage, migliorate e potenziate con l'attuale tecnologia nVidia.
Dico solo che però non è che NV40 = Rampage rinnovato. E' più corretto dire appunto che una parte del Rampage rivive dentro NV40. Ovviamente se tutto ciò sarà confermato. :)

Cmq qlc settimana fa c'erano dei rumors che dicevano che i 120 ingegneri ex 3dfx di nVidia avevano avuto un ruolo importante nell'implementazione dell'FSAA di NV40.

Staremo a vedere.;)

checo
07-04-2004, 18:48
Originariamente inviato da Dark Schneider

Cmq qlc settimana fa c'erano dei rumors che dicevano che i 120 ingegneri ex 3dfx di nVidia avevano avuto un ruolo importante nell'implementazione dell'FSAA di NV40.


questo è un fake , perchè se 120 lavorano al fsaa su tutto il chip ci lavorano che 3000 persone?

in realtà sta news è nata dopo aver visto gli screen de fsaa fondendo insieme un'altra leggenda che narra che sti ing vadano a lavorare alla nvidia tutti con le magliette 3dfx.

in realtà imho qualche ing nvidia (gli ing 3dfx non esistono più) ha ripreso in mano il fsaa 3dfx, questo è possibile, di più mi sa dura

pandyno
07-04-2004, 18:53
Originariamente inviato da checo
in realtà sta news è nata dopo aver visto gli screen de fsaa fondendo insieme un'altra leggenda che narra che sti ing vadano a lavorare alla nvidia tutti con le magliette 3dfx.

ah cosi' più o meno :D

http://digilander.libero.it/F1Land/3dfxarchive/download/media/gallery/v5-6000-agp-at-ects2000-5.jpg

Dark Schneider
07-04-2004, 18:57
Originariamente inviato da checo
questo è un fake , perchè se 120 lavorano al fsaa su tutto il chip ci lavorano che 3000 persone?

in realtà sta news è nata dopo aver visto gli screen de fsaa fondendo insieme un'altra leggenda che narra che sti ing vadano a lavorare alla nvidia tutti con le magliette 3dfx.


No spè 120 sono gli ex 3dfx che lavorano in nVidia (la maggior parte di quelli che erano di 3dfx), poi non lo so chi e quanti son stati impiegati per NV40 oltre a quelli originari nVidia. Mi son espresso male perchè ho confuso 2 distinti rumors.

checo
07-04-2004, 19:12
Originariamente inviato da pandyno
ah cosi' più o meno :D



esatto la schedazza la la usano come portachiavi

pandyno
07-04-2004, 19:14
Originariamente inviato da checo
esatto la schedazza la la usano come portachiavi

azz 1000E di portachiavi...
meglio il fermacarte :D

R@nda
07-04-2004, 19:25
Originariamente inviato da Dark Schneider
E' il classico prezzo della versione Ultra al lancio. :)
Ma io mi "accontento" della "liscia" che sicuramente costerà meno!!:)


Appunto...altro che no comment, ricordiamoci che in giro 5950 e 9800Xt costano ancora la bellezza di 550€

E sti cazzi dico pure.

checo
07-04-2004, 19:28
Originariamente inviato da pandyno
azz 1000E di portachiavi...
meglio il fermacarte :D


1000€ la paghi tu, gli ex ing 3dfx ne avranno bauli a casa

pandyno
07-04-2004, 19:29
Originariamente inviato da checo
1000? la paghi tu, gli ex ing 3dfx ne avranno bauli a casa

Come no...
hanno pure il revenge gli ingegneri :D

Dark Schneider
07-04-2004, 19:33
Originariamente inviato da R@nda
Appunto...altro che no comment, ricordiamoci che in giro 5950 e 9800Xt costano ancora la bellezza di 550€

E sti cazzi dico pure.


Penso che appena NV40 sarà immesso, la 5950 Ultra(che cmq si trova anche a poco più di 400 in realtà adesso) sparirà. Poi sicuro ci ritroveremo contemporaneamente NV40 e 5950 Ultra che costeranno uguali, ma la 5950 Ultra non sarà più una scheda ufficialmente presente sul mercato e che faccia parte della gamma nVidia. Ma si tratta di un classico dai. Alla fine adesso si trovano anche schede vecchissime che costano un botto per dire.

checo
07-04-2004, 19:43
Originariamente inviato da pandyno
Come no...
hanno pure il revenge gli ingegneri :D


revenge :rotfl:

cmq si saranno portati via quallo che potevano all' annuncio del fallimento no?

pandyno
07-04-2004, 19:58
Originariamente inviato da checo
revenge :rotfl:

cmq si saranno portati via quallo che potevano all' annuncio del fallimento no?


Non ti so dire onestamene.

Raven
07-04-2004, 20:07
Originariamente inviato da Dark Schneider
Alla fine adesso si trovano anche schede vecchissime che costano un botto per dire.

2 settimane fa in un negozio che pure vendeva 9600pro a 140€ che ti vedo in un angolino?!?!...



Radeon 8500 retail a SOLE 420.000!!!! :eek: (proprio LIRE!!!... manco euro!)

http://www.tg5.it/altre_notizie/images_servizi/030617081641_jpg11__d5_.jpg

AFFARONE AMIIIIIICIIII....! :sofico:

Dark Schneider
07-04-2004, 20:39
Originariamente inviato da Raven
2 settimane fa in un negozio che pure vendeva 9600pro a 140€ che ti vedo in un angolino?!?!...



Radeon 8500 retail a SOLE 420.000!!!! :eek: (proprio LIRE!!!... manco euro!)

http://www.tg5.it/altre_notizie/images_servizi/030617081641_jpg11__d5_.jpg

AFFARONE AMIIIIIICIIII....! :sofico:


Ahaha grande quella foto!!:sofico:
Cmq si in giro si trovano prodotti vecchi a prezzi assurdi.

dwfgerw
07-04-2004, 21:04
a 100€ ho trovato una tnt2 m64 in un centro commerciale:eek:

checo
07-04-2004, 21:28
su un sito crucco ha trovato una matrox g400 a 3500€ :D

Dark Schneider
07-04-2004, 22:13
Originariamente inviato da checo
su un sito crucco ha trovato una matrox g400 a 3500€ :D


Vabbè ma quello sicuro era un negozio che vendeva stock da 10 pezzi l'uno minimo!!:D

checo
07-04-2004, 22:18
Originariamente inviato da Dark Schneider
Vabbè ma quello sicuro era un negozio che vendeva stock da 10 pezzi l'uno minimo!!:D


però aveva una 5900xt creative a 180€

Dark Schneider
07-04-2004, 22:27
Originariamente inviato da checo
però aveva una 5900xt creative a 180€


Magari avrà mischiato!! Ehi checo dai che arriva anche il tuo turno di prendere una 5900XT adesso.:D

checo
07-04-2004, 22:50
Originariamente inviato da Dark Schneider
Magari avrà mischiato!! Ehi checo dai che arriva anche il tuo turno di prendere una 5900XT adesso.:D
non ne sento la necessità a dire il vero oltre a non avere soldi.

vedrò a settembre che mi propina il mercato (dell' usato)

KenMasters
07-04-2004, 22:54
Originariamente inviato da checo
però aveva una 5900xt creative a 180€


mi puoi dire gentilmente dove? anche in pvt tnx

checo
07-04-2004, 22:57
Originariamente inviato da KenMasters
mi puoi dire gentilmente dove? anche in pvt tnx


non ricordo mi spiace casomai domani guarda sulla cronologia, cmq in germani penso sia un prezzo quasi normale 180€ per una 5900xt

checo
07-04-2004, 22:58
Originariamente inviato da checo
non ricordo mi spiace casomai domani guarda sulla cronologia, cmq in germani penso sia un prezzo quasi normale 180€ per una 5900xt


anzi adesso che mi viene in mente è una 5900 liscia non una xt

Milotto
08-04-2004, 01:12
......Ho letto da poco un' intervista di un (ex) ingegnere 3dfx, il quale ammette apertamente che la strategia commerciale era ''soldi tanti investimenti pochi'' veniva anche ''confessato'' che i prodotti voodoo venivano usati ben oltre la loro reale vita tecnologica......




OT: Pandyno puoi citare la fonte?grazie
In merito a 3dfx c'è da dire che la gran parte delle schede era frutto della progettazione Quantum3d , di cui S. Seller (fondatore di 3dfx) è l'attuale presidente....
Per quanto riguarda il fallimento di 3dfx sono certo si sia trattato di una operazione tanto pilotata da essere ai limiti della legalità..;)

Dark Schneider
08-04-2004, 01:28
Ragazzi finalmente me ne posso tornare a casa dopo un mese e mezzo di assenza!! Finito il periodo degli esami...domani mattina me ne ritorno a casetta e mi godo una settimana di vacanze....e così potrò seguire anche maggiormente la questione NV40!! In maniera rilassata sull'altro pc...:sofico:

Eehhe adesso vado a nanna ma vi ricordo che mancano 5 giorni al 13 Aprile!!:sofico:

Buona notte :ronf:

ATi7500
08-04-2004, 03:07
Originariamente inviato da yossarian
il reale problema era legato allo spazio interno; i chip del periodo non avevano un gran quantitativo di spazio nei buffer interni (il Kyro 2 era quello più dotato, però aveva un'architettura 2x1, piuttosto semplice); per poter effettuare TBR su chip 4x2 o 2x3 come GF2 e Radeon si sarebbe dovuto disporre di molto più spazio e le tecnologie di allora non permettevano di averlo; infatti si trattava di chip che eseguivano poche operazioni on chip, ricorrendo spesso al frame buffer (da qui la necessità di avere più TMU per pipeline, cosa di cui il Kyro non aveva bisogno).
Con i chip attuali, che al contrario di quelli, effettuano gran parte delle operazioni all'interno, l'utilizzo di un sistema di tipo tbr è, invece, una cosa quasi fisiologica.


mi spiegheresti meglio questo passaggio? :)


bYeZ!

yossarian
08-04-2004, 08:16
Originariamente inviato da ATi7500
mi spiegheresti meglio questo passaggio? :)


bYeZ!

ti riferisci a quello in neretto?
Se si, allora le cosa è molto semplice :) .

I chip, fino alla generazione DX7, in particolare nelle operazioni di texturing, non facevano uso di cache interne; quindi, se ad esempio si dovevano applicare 2 texel per pixel e lo si voileva fare in un'unica passata, si doveva disporre di 2 TMU per pipeline. In caso contrario si poteva "caricare un solo texel per pixel per volta e, ad ogni passaggio, si doveva attingere di nuovo dalla ram video (il cui canale è più lento e, a caus del continuo flusso di dati tendeva ad intasarsi; tieni tra l'altro conto del fatto che non esistevano, per il bus ram video - gpu canali di tipo crossbar che permettono il flusso contemporaneo di dati in tutti e due i versi, poichè il primo risale alla GF3) In pratica le operazioni per single pass coincidevano con quelle per ciclo di clock. Questo il motivo per cui avere più TMU per pipeline costituiva un enorme vantaggio.
Il Kyro2, invece è stato uno dei primi chip a utilizzare buffer interni per le operazioni di multitexturing (il primo in assoluto è stato il Rage 128); in pratica, pur disponendo di una sola TMU per pipeline, poteva applicare fino a 8 texel per pixel per single pass (ovviamente per ciclo di clock era sempre 1 solo, limite imposto dal numero fisico di TMU) ricorrendo a cicli di loop back effettuati on chip (quello che fanno, adesso, i chip DX9 che con 1 o , al massimo, 2 TMU, applicano fino a 16 texel per pixel per single pass). Se per ipotesi, quindi, si fosse dovuto renderizzare un frame che richiedeva 8 texture per pixel, il Kyro avrebbe potuto caricare on chip i dati relativi a 16 texel (8 texel per 2 pixel) contemporaneamente, mentre la GF2 si sarebbe dovuta limitare a 8 (4x2) e la Radeon a 6 (2x3); per ogni pixel, inoltre, il Kyro si sarebbe limitato ad un solo accesso alla ram video per prelevare i dati, contro i 4 della GF2 e i 3 della Radeon (3+3+2).

Cifer
08-04-2004, 11:10
http://www.beyond3d.com/forum/viewtopic.php?t=11354&postdays=0&postorder=asc&start=0

discussione interessante, ma opinabile e comunque nulla di nuovo.

MaBru
08-04-2004, 13:17
Originariamente inviato da Milotto
OT: Pandyno puoi citare la fonte?grazie
In merito a 3dfx c'è da dire che la gran parte delle schede era frutto della progettazione Quantum3d , di cui S. Seller (fondatore di 3dfx) è l'attuale presidente....

Scott SellerS please. ;)

dwfgerw
08-04-2004, 18:35
16 pipes per ATi R420 !


http://www.xbitlabs.com/news/video/display/20040408100025.html

checo
08-04-2004, 19:13
cioè ne ha sempre avute 16 solo che pensavano di abilitarne un po alla volta all' occorenza?
un po come fa intel?

Dark Schneider
08-04-2004, 19:25
Sicuramente saranno sullo stesso livello. Che la differenza di Pipeline sia pari a zero...o che ci sia differenza di numero di Pipeline...i due prodotti saranno lì. E' sicuramente se uno sceglie o l'uno o l'altro...sicuramente non sbaglia e per due annetti avranno il Top del Top.;)

E' voglio ricordare una cosa:

Mancano 4 giorni 3 ore e 5 minuti al lancio di NV40!!:D

TheDarkAngel
08-04-2004, 19:26
Originariamente inviato da checo
cioè ne ha sempre avute 16 solo che pensavano di abilitarne un po alla volta all' occorenza?
un po come fa intel?

per forza :confused:
come facevano ad aggiungere 4 pipeline? dovevano ridisegnare per forza tutto...

yossarian
08-04-2004, 19:27
Originariamente inviato da checo
cioè ne ha sempre avute 16 solo che pensavano di abilitarne un po alla volta all' occorenza?
un po come fa intel?


qualcosa del genere; qualche tempo fa girava la notizia che l'R420 avrebbe avuto 12 pipeline e l'R423 16; poichè sono, in realtà, lo stesso chip, l'unica ipotesi plausibile era quella che ripetessero il gioco già visto con le 9500/9700 e le 9800 SE/9800

Dark Schneider
08-04-2004, 19:29
Originariamente inviato da TheDarkAngel
per forza :confused:
come facevano ad aggiungere 4 pipeline? dovevano ridisegnare per forza tutto...


Esattamente!! E' impossibile all'ultimo minuto.

halduemilauno
08-04-2004, 19:30
Originariamente inviato da Dark Schneider
Sicuramente saranno sullo stesso livello. Che la differenza di Pipeline sia pari a zero...o che ci sia differenza di numero di Pipeline...i due prodotti saranno lì. E' sicuramente se uno sceglie o l'uno o l'altro...sicuramente non sbaglia e per due annetti avranno il Top del Top.;)

E' voglio ricordare una cosa:

Mancano 4 giorni 3 ore e 5 minuti al lancio di NV40!!:D

veramente ne mancano più di 5 e mezzo.
ciao.

;)

halduemilauno
08-04-2004, 19:32
Originariamente inviato da yossarian
qualcosa del genere; qualche tempo fa girava la notizia che l'R420 avrebbe avuto 12 pipeline e l'R423 16; poichè sono, in realtà, lo stesso chip, l'unica ipotesi plausibile era quella che ripetessero il gioco già visto con le 9500/9700 e le 9800 SE/9800


esatto ne aveva 16 sin dall'inizio.
ciao.
;)

Dark Schneider
08-04-2004, 19:33
Originariamente inviato da halduemilauno
veramente ne mancano più di 5 e mezzo.
ciao.

;)


Naaaa i calcoli son giusti...poi vabbè per noi sarà il giorno 14.
Ho visto che su GFzone hanno messo un contdown moooolto carino!!:sofico:

halduemilauno
08-04-2004, 22:23
Originariamente inviato da Dark Schneider
Naaaa i calcoli son giusti...poi vabbè per noi sarà il giorno 14.
Ho visto che su GFzone hanno messo un contdown moooolto carino!!:sofico:


http://www.angelfire.com/theforce/barubal/6800_Ultra_F_3qtr_vert.jpg

-=Krynn=-
08-04-2004, 22:29
qua la faccenda si è pareggiata a mio avviso tra ATi e NVIDIA.....

Dark Schneider
08-04-2004, 22:30
Originariamente inviato da halduemilauno
http://www.angelfire.com/theforce/barubal/6800_Ultra_F_3qtr_vert.jpg


Oddio è bellissima!!:eek:
Mamma mia...sarà vera? Per me può essere :)

andy_mouse
08-04-2004, 22:32
permettete un piccolo ot?
quando saranno sul mercato le nuove schede col chip nv40,una 9800 dovrebbe scendere a circa 100? tra quanto si verificherà la svalutazione più o meno?

xpiuma
08-04-2004, 22:35
Originariamente inviato da halduemilauno
http://www.angelfire.com/theforce/barubal/6800_Ultra_F_3qtr_vert.jpg

:eek:

E' diversa da quella postata un pò di tempo fa, peccato per il dissipatore che non permette di vedere esattamente il layout.

Probabilmente questo è un sample distribuito da nVidia qualche giorno fa, e prontamente fotografato...
La disposizione dei condensatori è differente da quello visto prima, ma la cosa che colpisce è l'effettiva presenza di due molex...
A parte i rumors io avevo sperato che sulla versione definitiva il molex fosse uno solo, che 2 molex li avessero utilizzati sui sample dimostrativi... E invece??' :cry:

DjLode
08-04-2004, 22:38
Originariamente inviato da andy_mouse
permettete un piccolo ot?
quando saranno sul mercato le nuove schede col chip nv40,una 9800 dovrebbe scendere a circa 100? tra quanto si verificherà la svalutazione più o meno?

Non esiste nessun legame tra l'uscita dell'NV40 e il prezzo della 9800. Oltretutto quando usciranno le nuove schede Nvidia, usciranno anche quelle Ati, le 9800 usciranno dal mercato e chi s'è visto s'è visto. 100€ per quella scheda a meno che non sia rotta o rubata te li sogni :)

Dark Schneider
08-04-2004, 22:38
Originariamente inviato da andy_mouse
permettete un piccolo ot?
quando saranno sul mercato le nuove schede col chip nv40,una 9800 dovrebbe scendere a circa 100? tra quanto si verificherà la svalutazione più o meno?


Se vuoi il mio parere, con l'arrivo delle nuove schede le 9800 spariranno (così come le 5900xt).

Dark Schneider
08-04-2004, 22:42
Originariamente inviato da xpiuma
:eek:

E' diversa da quella postata un pò di tempo fa, peccato per il dissipatore che non permette di vedere esattamente il layout.

Probabilmente questo è un sample distribuito da nVidia qualche giorno fa, e prontamente fotografato...
La disposizione dei condensatori è differente da quello visto prima, ma la cosa che colpisce è l'effettiva presenza di due molex...
A parte i rumors io avevo sperato che sulla versione definitiva il molex fosse uno solo, che 2 molex li avessero utilizzati sui sample dimostrativi... E invece??' :cry:


Si è vero. Cmq secondo me può anche essere che l'altro era cmq autentico. più che altro questo mi sa che è stato prodotto da qualcun altro. L'altro mi sa che era di MSI (poi quel cartello al cebit di MSI su NV40 fa pensare).

Il sistema di raffreddamento secondo voi come sarà? :) Cioè sarà buono? Oddio io penso di si...anche se fa molto meno paura di come me lo immaginavo.

A spaventare purtroppo ci sono sempre quei due molex.

pon 87
08-04-2004, 22:44
Originariamente inviato da Dark Schneider

Ho visto che su GFzone hanno messo un contdown moooolto carino!!:sofico:

:D :D

pon 87
08-04-2004, 22:45
Originariamente inviato da Dark Schneider

A spaventare purtroppo ci sono sempre quei due molex.

Quei due molex spaventano anche me
:D

Dark Schneider
08-04-2004, 23:56
Va a finire che qui se ne vanno più soldi per trovare l'ali giusto...che quelli per comprare la scheda.:sofico:

No dai col cavolo....spero che un 400 Watt basti!!:)

KenMasters
09-04-2004, 00:03
Originariamente inviato da Dark Schneider
Va a finire che qui se ne vanno più soldi per trovare l'ali giusto...che quelli per comprare la scheda.:sofico:

No dai col cavolo....spero che un 400 Watt basti!!:)


ahhaah vabbe adesso non esagerare. Secondo me è più che sufficiente, a meno che tu non abbia molte periferiche installate. Altrimenti credo un upgrade ci vorra :)

Dark Schneider
09-04-2004, 00:20
Originariamente inviato da KenMasters
ahhaah vabbe adesso non esagerare. Secondo me è più che sufficiente, a meno che tu non abbia molte periferiche installate. Altrimenti credo un upgrade ci vorra :)


No vabbè ma per dirti cmq ne ho alcuni di riserva di Ali...tra i quali uno da 500 Watt!:sofico:
No cmq ho 2 HD, 1 floppy, 1 masterizzatore sul primo pc...niente di chissà che. Per dirti manco ho ventole nel case,ecc. Le prese son attaccate solo a quelle.

checo
09-04-2004, 00:21
Originariamente inviato da yossarian
qualcosa del genere; qualche tempo fa girava la notizia che l'R420 avrebbe avuto 12 pipeline e l'R423 16; poichè sono, in realtà, lo stesso chip, l'unica ipotesi plausibile era quella che ripetessero il gioco già visto con le 9500/9700 e le 9800 SE/9800

il gioco è diverso nei casi precedenti vendevano versioni castrate di fascia media, qua castrano subito la fascia alta per poi all' occorrenza elaborarla. sarà che mi ricorda intel ma non mi piace :D

checo
09-04-2004, 00:22
Originariamente inviato da andy_mouse
permettete un piccolo ot?
quando saranno sul mercato le nuove schede col chip nv40,una 9800 dovrebbe scendere a circa 100? tra quanto si verificherà la svalutazione più o meno?


mai! magari la 9800 scendesse a 100

yossarian
09-04-2004, 00:29
Originariamente inviato da checo
il gioco è diverso nei casi precedenti vendevano versioni castrate di fascia media, qua castrano subito la fascia alta per poi all' occorrenza elaborarla. sarà che mi ricorda intel ma non mi piace :D


chi va con lo zoppo.......................:D

Dark Schneider
09-04-2004, 00:49
Ehi yoss un parere sull'immagine della scheda?:D Secondo te c'è un po' da preoccuparsi per questi due molex che fino ad ora son sempre apparsi?

Thunder82
09-04-2004, 00:52
Io penso che abbiano messo i 2 molex perchè altrimenti la densità di corrente nelle piste della scheda sarebbe stata oltre il limite consentito con 1 molex solo e si sarebbe rischiata la fusione delle piste di alimentazione a causa delle alte correnti in gioco. Mettendo 2 molex con quindi 2 linee di alimentazione, la densità di corrente nelle piste è molto più bassa. :)

ATi7500
09-04-2004, 01:04
Originariamente inviato da yossarian
ti riferisci a quello in neretto?
Se si, allora le cosa è molto semplice :) .

I chip, fino alla generazione DX7, in particolare nelle operazioni di texturing, non facevano uso di cache interne; quindi, se ad esempio si dovevano applicare 2 texel per pixel e lo si voileva fare in un'unica passata, si doveva disporre di 2 TMU per pipeline. In caso contrario si poteva "caricare un solo texel per pixel per volta e, ad ogni passaggio, si doveva attingere di nuovo dalla ram video (il cui canale è più lento e, a caus del continuo flusso di dati tendeva ad intasarsi; tieni tra l'altro conto del fatto che non esistevano, per il bus ram video - gpu canali di tipo crossbar che permettono il flusso contemporaneo di dati in tutti e due i versi, poichè il primo risale alla GF3) In pratica le operazioni per single pass coincidevano con quelle per ciclo di clock. Questo il motivo per cui avere più TMU per pipeline costituiva un enorme vantaggio.
Il Kyro2, invece è stato uno dei primi chip a utilizzare buffer interni per le operazioni di multitexturing (il primo in assoluto è stato il Rage 128); in pratica, pur disponendo di una sola TMU per pipeline, poteva applicare fino a 8 texel per pixel per single pass (ovviamente per ciclo di clock era sempre 1 solo, limite imposto dal numero fisico di TMU) ricorrendo a cicli di loop back effettuati on chip (quello che fanno, adesso, i chip DX9 che con 1 o , al massimo, 2 TMU, applicano fino a 16 texel per pixel per single pass). Se per ipotesi, quindi, si fosse dovuto renderizzare un frame che richiedeva 8 texture per pixel, il Kyro avrebbe potuto caricare on chip i dati relativi a 16 texel (8 texel per 2 pixel) contemporaneamente, mentre la GF2 si sarebbe dovuta limitare a 8 (4x2) e la Radeon a 6 (2x3); per ogni pixel, inoltre, il Kyro si sarebbe limitato ad un solo accesso alla ram video per prelevare i dati, contro i 4 della GF2 e i 3 della Radeon (3+3+2).

ecco perchè cloccare la ram su chip con un elevato numero d tmu (tipo il radeon e il parhelia) nn da grandi risultati...

però m spieghi perchè al tempo s diceva "ma ke se ne fa il radeon d 3 TMU, tanto nessun gioco le sfrutta"?

cioè il vantaggio delle 3 tmu s aveva solo cn motori appositamente realizzati oppure con tutti?


bYeZ!

ATi7500
09-04-2004, 01:09
Originariamente inviato da Thunder82
Io penso che abbiano messo i 2 molex perchè altrimenti la densità di corrente nelle piste della scheda sarebbe stata oltre il limite consentito con 1 molex solo e si sarebbe rischiata la fusione delle piste di alimentazione a causa delle alte correnti in gioco. Mettendo 2 molex con quindi 2 linee di alimentazione, la densità di corrente nelle piste è molto più bassa. :)

ecco spiegata la presenza d pochissimi condensatori, tra l'altro..

;)


bYeZ!

yossarian
09-04-2004, 01:20
Originariamente inviato da ATi7500
ecco perchè cloccare la ram su chip con un elevato numero d tmu (tipo il radeon e il parhelia) nn da grandi risultati...

però m spieghi perchè al tempo s diceva "ma ke se ne fa il radeon d 3 TMU, tanto nessun gioco le sfrutta"?

cioè il vantaggio delle 3 tmu s aveva solo cn motori appositamente realizzati oppure con tutti?


bYeZ!

dipende; se parliamo di chip in cui le operazioni per pass corrispondono a quelle per clock, fino ad un certo punto, l'overclock delle ram favorisce chip con elevato numero di TMU, perchè, per ogni ciclo, la quantità di dati che transita nel bus è maggiore (poichè è maggiore la capacità di elaborazione del chip); oltre quel limite, non si hanno più vantaggi dall'aumento delle frequenze delle ram; questo limitandosi al conteggio delle sole TMU (le stesse considerazioni andrebbero fatte conteggiando tutte le unità di calcolo presenti sulle pipeline). In realtà, nel caso della Radeon, proprio dallo scarso utilizzo della terza TMU (tranne che nei casi di applicazioni dei filtri, in cui iniziava a risultare anche bandwidth limited) l'architettura 2x2 (ripeto, la terza non la consideriamo) lo rendeva, lavorando alle risoluzioni "standard", più fillrate limited che non bandwidth limited. Il caso della Parhelia è diverso; la P. ha una enorme bandwidth ma non utilizza algoritmi di HSR; alle risoluzioni medio alte la bandwidth non costituisce certo un limite (il discorso cambia leggermente se si iniziano ad utilizzare anche i filtri), però risulta fillrate limited a causa delle basse frequenze di funzionamento dei chip (220 Mhz e 200 Mhz rispettivamente).
Quindi, in entrambi i casi, risulta decisamente più proficuo un innalzamento della frequenza del core che non di quella delle ram

il fatto è molto semplice: il ricorso al multitexturing era piuttosto limitato e, per lo più, non si utilizzavano più di 2 texel per pixel. Anche l'EMBM che si sarebbe giovato dell'utilizzo della terza TMU era usato pochissimo. Quindi, di fatto, la terza TMU dell'R100 restava, per la maggior parte del tempo, inattiva (in realtà si poteva impiegare per altre funzioni, tipo per accelerare le operazioni di trilinear filtering, cosa che, prima del Radeon, già faceva il Voodoo 2 che non aveva 2 texture unit ma 3, di cui 2 complete e 1 che eseguiva solo operazioni di bilinear filtering, oppure per velocizzare il FSAA, però i vantaggi tratti non erano pari a quelli che si sarebbero avuti dal suo utilizzo come texture unit pura).

yossarian
09-04-2004, 01:22
Originariamente inviato da Dark Schneider
Ehi yoss un parere sull'immagine della scheda?:D Secondo te c'è un po' da preoccuparsi per questi due molex che fino ad ora son sempre apparsi?


ho già pronti un paio di generatori ausiliari :sofico:


:D :D :D

Dark Schneider
09-04-2004, 01:27
Originariamente inviato da yossarian
ho già pronti un paio di generatori ausiliari :sofico:


:D :D :D


Mamma mia ma sta scheda secondo me per farla andare ha bisogno di Dilitio!!:D

ATi7500
09-04-2004, 01:50
Originariamente inviato da yossarian
dipende; se parliamo di chip in cui le operazioni per pass corrispondono a quelle per clock, fino ad un certo punto, l'overclock delle ram favorisce chip con elevato numero di TMU, perchè, per ogni ciclo, la quantità di dati che transita nel bus è maggiore (poichè è maggiore la capacità di elaborazione del chip); oltre quel limite, non si hanno più vantaggi dall'aumento delle frequenze delle ram; questo limitandosi al conteggio delle sole TMU (le stesse considerazioni andrebbero fatte conteggiando tutte le unità di calcolo presenti sulle pipeline). In realtà, nel caso della Radeon, proprio dallo scarso utilizzo della terza TMU (tranne che nei casi di applicazioni dei filtri, in cui iniziava a risultare anche bandwidth limited) l'architettura 2x2 (ripeto, la terza non la consideriamo) lo rendeva, lavorando alle risoluzioni "standard", più fillrate limited che non bandwidth limited. Il caso della Parhelia è diverso; la P. ha una enorme bandwidth ma non utilizza algoritmi di HSR; alle risoluzioni medio alte la bandwidth non costituisce certo un limite (il discorso cambia leggermente se si iniziano ad utilizzare anche i filtri), però risulta fillrate limited a causa delle basse frequenze di funzionamento dei chip (220 Mhz e 200 Mhz rispettivamente).
Quindi, in entrambi i casi, risulta decisamente più proficuo un innalzamento della frequenza del core che non di quella delle ram

il fatto è molto semplice: il ricorso al multitexturing era piuttosto limitato e, per lo più, non si utilizzavano più di 2 texel per pixel. Anche l'EMBM che si sarebbe giovato dell'utilizzo della terza TMU era usato pochissimo. Quindi, di fatto, la terza TMU dell'R100 restava, per la maggior parte del tempo, inattiva (in realtà si poteva impiegare per altre funzioni, tipo per accelerare le operazioni di trilinear filtering, cosa che, prima del Radeon, già faceva il Voodoo 2 che non aveva 2 texture unit ma 3, di cui 2 complete e 1 che eseguiva solo operazioni di bilinear filtering, oppure per velocizzare il FSAA, però i vantaggi tratti non erano pari a quelli che si sarebbero avuti dal suo utilizzo come texture unit pura).

l'anisotropico dell'R100 (e ovviamente anke dell'RV200) s avvale della terza tmu?

m sai dire un paio d giochi moderni ke possono in qualche caso avvantaggiarsi della terza tmu?

una cosa curiosa...il test del 3dmark 2001, qll sull'environmental bump mapping, viene eseguito in maniera più veloce sulla 7500 (120 fps) ke nn su una 8500 (85 circa m pare)..
è un limite della mancanza della 3tmu nell'r200 o è qualcosa d più secondo te?


bYeZ!

Dark Schneider
09-04-2004, 02:11
D. Sim Dietrich di nVidia ha pubblicato in questo link del sito di Microsoft un approfondimento riguardante i nuovi Shader 3.0 che verranno supportati dalla prossima gpu nV40 dell'azienda californiana.

http://www.microsoft.com/whdc/winhec/partners/shadermodel30_NVIDIA.mspx

Fonte: Hardware-Mania


Buona notte a tutti!!:ronf:

Thunder82
09-04-2004, 02:38
Qui c'è un altro link che elenca le caratteristiche degli shader 3.0, e i vantaggi che potranno dare nei giochi. Viene anche sottolineato che saranno MOLTO pesanti. I ps2.0 hanno un minimo di 96 istruzioni, e un max di 512. I ps3.0 invece hanno un MINIMO di 512 istruzioni in fp32... pesantissime quindi. I vertex 2.0 inoltre hanno al MAX 256 istruzioni, i 3.0 invece un MINIMO di 512, quindi anche qua siamo sul molto pesante.

Interessante l'analisi dei vantaggi nei giochi che porta ogni singolo aspetto.

http://www.elitebastards.com/page.php?pageid=4136&head=1&comments=1

PIXEL SHADER 3.0

What does this mean for gamers?

Until we start seeing titles explicitly written to take advantage of Pixel Shader 3.0 features, it really won't make any difference at all. We've already seen one title (Far Cry) patched to include 3.0 shader support - This may well have been recompiled to take advantage of some of the features listed above, and although it is unlikely to make a difference to image quality at all, we may see performance improvements using PS 3.0 over 2.0 - Something to test once we get some 3.0 shader capable boards in our hands...

The feature set of Pixel Shader 3.0 does also allow for some nice new visual effects of note - Mainly the ability to use floating point values for texture filtering and frame buffer blending. In particular, frame buffer blending can allow for a realistic looking 'motion blur' effect (brings back memories of 3Dfx's T-Buffer, doesn't it?), and floating point textures should improve the look of effects such as HDR (High Dynamic Range) rendering - An effect that we've already seen on PS 2.0 hardware in Half-Life 2, now taken to a new level.

So, to sum up, PS 3.0 is definitely a big step forward from a hardware and developer point of view, while still offering some interesting new effects for all the eye-candy lovers. As with all new graphics technology, the real question marks are over how much (and how quickly) the features will be brought into use, and what the exact performance ramifactions will be - There is a possibility that the first generation of 3.0 shader compliant hardware will be nothing more than a 'checkbox feature' if performance isn't good enough. Again, we shall have to wait and see.

Now, with Pixel Shader 3.0 out of the way, lets move on to arguably the more exciting of the two shader models from an enhancement point of view...

VERTEX SHADER 3.0

Vertex textures

The premise of vertex textures is actually quite simple. In the past, vertex shaders have had no way of accessing textures. This has now changed, as a function has been added to allow vertex shaders to do texture lookups. This greatly enhances the number of things you can do with vertex shaders, and once used may well end up with some very nice effects for users.

One potential usage for this feature is the ability to do full displacement mapping. Displacement mapping was a highly-touted feature of DirectX 9, so it was somewhat disappointing when the limitations of current hardware when it came to this feature were established. Currently available hardware (Matrox Parhelia aside) can only use pre-created displacement maps, whereas this new functionality should assist in creating fully programmable displacement maps.

Another great bonus of being able to read textures from the vertex shader will be the ability to create more realistic physics simulations. Being able to use textures and vertex shaders in this new way will be particularly useful for simulating objects like water or cloth in a more realistic manner.

Vertex stream frequency

Vertex stream frequency division is again a feature designed to make things more efficient. Normally, with older shader revisions, the vertex shader is called once per vertex, and then all the input registers are initialised. However, vertex stream frequency can be used to ensure that applicable registers are called at a less frequent rate, thus saving work and theoretically improving performance.


What does this mean for gamers?

As we've explored, the potential for 'cool eye candy' is generally greater with the improvements made in Vertex Shader 3.0 than those seen in Pixel Shader 3.0. Certainly, if some of these features are put into effect in future titles, and performance is up to scratch, then we have something to be excited about.




Pare quindi già evidente che sarà MOLTO difficile con questa generazione ottenere prestazioni soddisfacenti negli shader 3.0... forse ATi fa bene a evitare la loro implementazione.

Inoltre usando dei ps3.0 al posto dei ps2.0 (come in Far Cry) per ottenere gli stessi effetti (attenzione, non effetti ps3.0, ma effetti ps2.0 eseguiti probabilmente in singola passata coi ps3.0) le performance siano MIGLIORI dello stesso effetto fatto solo coi ps2.0.

Dark Schneider
09-04-2004, 11:41
Bisogna vedere come hanno lavorato i due produtori...magari nVidia ha lavorato di più sugli Shader 3.0 rispetto ad Ati!!
Resta cmq il fatto che i nuovi due chip avranno una potenza di molto maggior rispetto a quella attuale!! :)

Ma cmq i nuovi due chip sicuramente saranno i chip per il 2.0....ora che li vedremo sfruttati i 3.0 ne passerà...

Dark Schneider
09-04-2004, 11:42
Sul sito web Wrap2search, a questo indirizzo, sono apparsi nuovi driver NVIDIA Forceware per schede video della famiglia GeForce. La particolarità di questi driver è quella di essere una revision completamente nuova, 6'.72, che dovrebbe aprire le porte ai nuovi driver NVIDIA specificamente pensati per le prossime generazioni di chip video NV4X.

Il debutto dei nuovi driver Forceware famiglia 60, tuttavia, è atteso non prima del mese di Maggio, almeno come release ufficiale. Questi driver saranno quelli forniti assieme alle nuove schede NV40, ed è probabilmente per questo motivo che i primi test prestazionali effettuati non hanno permesso di evidenziare prestazioni particolarmente interessanti con l'attuale generazione di schede video NVIDIA.

Osservando il readme allegato assieme a questi driver emergono informazioni interessanti proprio con riferimento alla famiglia di chip NV40:

NVIDIA_NV40.DEV_0040.1 = "NVIDIA GeForce 6800 Ultra"
NVIDIA_NV40.DEV_0041.1 = "NVIDIA GeForce 6800"
NVIDIA_NV40.DEV_0042.1 = "NVIDIA NV40"
NVIDIA_NV40.DEV_0043.1 = "NVIDIA NV40 "
NVIDIA_NV40.DEV_0049.1 = "NVIDIA NV40GL"
NVIDIA_NV40.DEV_004E.1 = "NVIDIA NV40GL "

Questo conferma varie informazioni non ufficiali apparse on line presso vari siti.
I nuovi driver sono scaricabili on line presso alcuni siti. Sembra che NVIDIA ne abbia richiesto la rimozione in quanto non si tratta di materiale ufficiale, e per questo motivo abbiamo scelto di non rendere disponibile questa revision dalla nostra sezione software.


Fonte: HwUpgrade

dwfgerw
09-04-2004, 12:30
tratto da www.hardware-mania.com


- IMMAGINE GEFORCE 6800 ULTRA ?
Segnalata da Antonio 9/4/2004 - 13.11 COMMENTA LA NEWS

In basso riporto un'immagine trafugata che dovrebbe rappresentare la versione finale di GeForce 6800 Ultra conosciuto anche con il nome in codice nV40.

http://www.angelfire.com/theforce/barubal/6800_Ultra_F_3qtr_vert.jpg


Notare l'ottima pulizia del pcb, dissipatore generoso ma decisamente meno ingombrante dei flow fx visti con la FX 5800 Ultra, ed il doppio molex che alimenterà GPU e DDR-III.
------------------------------------------------------


che dire.... la scheda sembra bellissima

Dark Schneider
09-04-2004, 12:42
Si esteticamente mi piace moltissimo. Per di più secondo me quel sistema di rafredamento mi sembra anche di quelli silenziosi. :) Almeno all'apparenza mi sembra tale.

Fire Fox II
09-04-2004, 13:39
Originariamente inviato da Dark Schneider
Si esteticamente mi piace moltissimo. Per di più secondo me quel sistema di rafredamento mi sembra anche di quelli silenziosi. :) Almeno all'apparenza mi sembra tale.

Inoltre, da quello che vedo, sembra non occupare anche lo slot pci inferiore... :)

Norbrek™
09-04-2004, 14:35
Originariamente inviato da dwfgerw
tratto da www.hardware-mania.com


- IMMAGINE GEFORCE 6800 ULTRA ?
Segnalata da Antonio 9/4/2004 - 13.11 COMMENTA LA NEWS

In basso riporto un'immagine trafugata che dovrebbe rappresentare la versione finale di GeForce 6800 Ultra conosciuto anche con il nome in codice nV40.

http://www.angelfire.com/theforce/barubal/6800_Ultra_F_3qtr_vert.jpg


Notare l'ottima pulizia del pcb, dissipatore generoso ma decisamente meno ingombrante dei flow fx visti con la FX 5800 Ultra, ed il doppio molex che alimenterà GPU e DDR-III.
------------------------------------------------------


che dire.... la scheda sembra bellissima
Com'è che ha solo le uscite dvi?

Dindi
09-04-2004, 14:51
è vero! mah forse da questa angolazione sembrano 2 uscite dvi, ince ce n'è solo una!
Speriamo sia così!:sperem:

Gatz1980
09-04-2004, 15:01
Originariamente inviato da Dindi
è vero! mah forse da questa angolazione sembrano 2 uscite dvi, ince ce n'è solo una!
Speriamo sia così!:sperem:

Perchè speriamo :confused:

Secondo me è molto meglio così, essendo due uscite DVI-I, puoi avere tutte le possibili combinazioni di monitor VGA e DVI tramite semplici adattatori, cioè.

VGA+VGA
VGA+DVI
DVI+DVI

dwfgerw
09-04-2004, 15:08
anche la foto senza dissi con pcb rosso che venne pubblicata durante il cebit aveva due dVI, forse sono dei sample di nv40GL.

Daytona
09-04-2004, 15:25
Originariamente inviato da dwfgerw
tratto da www.hardware-mania.com


- IMMAGINE GEFORCE 6800 ULTRA ?
Segnalata da Antonio 9/4/2004 - 13.11 COMMENTA LA NEWS

In basso riporto un'immagine trafugata che dovrebbe rappresentare la versione finale di GeForce 6800 Ultra conosciuto anche con il nome in codice nV40.

http://www.angelfire.com/theforce/barubal/6800_Ultra_F_3qtr_vert.jpg


Notare l'ottima pulizia del pcb, dissipatore generoso ma decisamente meno ingombrante dei flow fx visti con la FX 5800 Ultra, ed il doppio molex che alimenterà GPU e DDR-III.
------------------------------------------------------


che dire.... la scheda sembra bellissima

si ma hanno sacrificato il mitico turbinone montato sulla 5950Ultra
:cry: :cry: :cry: ....nooooooooooooooooo sacrilegio:sob: :Puke:

Daytona
09-04-2004, 15:27
Il PCI a discapito dell'overclock:cry: :cry:

:p

Thunder82
09-04-2004, 15:34
Originariamente inviato da Fire Fox II
Inoltre, da quello che vedo, sembra non occupare anche lo slot pci inferiore... :)

Ti sfido comunque a mettergli una scheda PCI nello slot accanto... :)

Voglio vedere quanta aria calda tira dentro qulla ventola con una bella scheda PCI che scalda piazzata proprio attaccata all'ingresso dell'aria. Lo slot PCI è perso cmq se non vuoi avere problemi di surriscaldamento.

Daytona
09-04-2004, 15:39
Originariamente inviato da Thunder82
Ti sfido comunque a mettergli una scheda PCI nello slot accanto... :)

Voglio vedere quanta aria calda tira dentro qulla ventola con una bella scheda PCI che scalda piazzata proprio attaccata all'ingresso dell'aria. Lo slot PCI è perso cmq se non vuoi avere problemi di surriscaldamento.

Hai ragione di brutto:D
:mano: :ubriachi:

Fire Fox II
09-04-2004, 16:42
Originariamente inviato da Thunder82
Ti sfido comunque a mettergli una scheda PCI nello slot accanto... :)

Voglio vedere quanta aria calda tira dentro qulla ventola con una bella scheda PCI che scalda piazzata proprio attaccata all'ingresso dell'aria. Lo slot PCI è perso cmq se non vuoi avere problemi di surriscaldamento.

Beh, questo lo sapve anch'io ;)

Però prima occupava 2 slot più quello adiacente: almeno ora si potrebbe, almeno in teoria, usare il secondo slot pci :)

yossarian
09-04-2004, 18:10
Originariamente inviato da ATi7500
l'anisotropico dell'R100 (e ovviamente anke dell'RV200) s avvale della terza tmu?


bYeZ!

si

Originariamente inviato da ATi7500

m sai dire un paio d giochi moderni ke possono in qualche caso avvantaggiarsi della terza tmu?


bYeZ!

purtroppo non posso aiutarti; non sono particolarmante esperto di motori grafici di giochi; sicuramente tutti i giochi che utilizzano multitexturingo anche con più di 2 texture per pixel. Però, tieni conto che se le texture diventano, ad esempio, 4, si perdono i vantaggi rispetto a chip tipo GF2 che ne hanno solo 2 (servono sempre 2 cicli di clock).

Originariamente inviato da ATi7500

una cosa curiosa...il test del 3dmark 2001, qll sull'environmental bump mapping, viene eseguito in maniera più veloce sulla 7500 (120 fps) ke nn su una 8500 (85 circa m pare)..
è un limite della mancanza della 3tmu nell'r200 o è qualcosa d più secondo te?


bYeZ!


questa mi giunge nuova; le 3 TMU darebbero un vantaggio all'R100 se avesse 4 pipeline di rendering, come l'R200, oppure se l'R200 avesse bisogno di accedere alla ram video per applicare la terza texture. Invece l'R200 utilizza un ciclo di loop back interno, risparmiando, comunque, parecchio tempo, pur eseguendo i calcoli in due cicli di clock anzichè uno (però elabora 4 pixel contro i 2 dell'R100). Se è come dici, la cosa va studiata un po' più nel dettaglio.

MaBru
09-04-2004, 18:58
Da The Inquirer:

Today we can confirm that Nvidia recommends that the PSU for GeForce 6800 Ultra should be no less than a stonking 480W!

Link http://www.theinquirer.net/?article=15265

Thunder82
09-04-2004, 19:00
Originariamente inviato da MaBru
Da The Inquirer:



Link http://www.theinquirer.net/?article=15265

:eek:

Se la possono tenere (anche se ho un 550)

Daytona
09-04-2004, 19:06
Originariamente inviato da MaBru
Da The Inquirer:



Link http://www.theinquirer.net/?article=15265

Ma mi faccia il piacere!!!!!!!:tie:

:asd:

checo
09-04-2004, 19:07
penso sia una questione di ameraggi più che di potenza.

Dark Schneider
09-04-2004, 19:08
Originariamente inviato da MaBru
Da The Inquirer:



Link http://www.theinquirer.net/?article=15265


Sinceramente non ci credo che ci voglia un 480 Watt. Ma dai adesso pure più del Volari?

A The Inquirer lo so io dove metterglielo un alimentatore da 480 Watt. Che dite gli basterà la potenza o ne vorrà di più?:D

dwfgerw
09-04-2004, 20:02
aspetta a sbeffeggiare the inquirer, credo che forse per la ultra ci vogliano e come....
due molex lo lasciano intendere

Dark Schneider
09-04-2004, 20:19
Ma per il Volari basta un 400 Watt....sinceramente non penso che per la Ultra il minimo è 480 Watt. Si sta esagerando direi. Che poi se fosse ci sarebbero un po' troppo pochi tipi di Ali che effettivamente hanno 480 Watt di potenza "reale". E' che ci serve na lista degli ali supportati adesso?:rolleyes:
Cioè i vari chitech 420, enermax 431, enermax 460,ecc. tutti tagliati fuori?

dwfgerw
09-04-2004, 20:27
per 480 si intende gli genereci.

più che potenza ci vogliono amperaggi stabili, e credo che quello di marca anche con 50watt in meno siano in grado di alimentarla a dovere.