View Full Version : Aspettando NV40
Dark Schneider
09-04-2004, 20:30
Originariamente inviato da dwfgerw
per 480 si intende gli genereci.
più che potenza ci vogliono amperaggi stabili, e credo che quello di marca anche con 50watt in meno siano in grado di alimentarla a dovere.
Mah lo spero che s'intendono gli generici, perchè sennò davvero ripeto sono tagliati fuori anche la maggior parte dei migliori alimentatori in circolazione.
forse sulla questione consumi ati potrebbe essere molto avvantaggiata, dato che usa il low-k e tende sempre a fare prodotti che non dissipino troppi watt, dato che ha un occhio di riguarda al settore integrato e notebook
www.ati.com
the latest secret weapon....
Originariamente inviato da MaBru
Today we can confirm that Nvidia recommends that the PSU for GeForce 6800 Ultra should be no less than a stonking 480W!
Me cojoni!!! :eek: :muro: :mc:
:asd:
Dark Schneider
09-04-2004, 21:09
Originariamente inviato da dwfgerw
forse sulla questione consumi ati potrebbe essere molto avvantaggiata, dato che usa il low-k e tende sempre a fare prodotti che non dissipino troppi watt, dato che ha un occhio di riguarda al settore integrato e notebook
Si il Low-K è una grande cosa. Non so come sarà la 6800 e tutta sta faccenda, però secondo me la mossa giusta l'ha fatta Ati con la tecnologia Low-K. Anche a nVidia conveniva andare su una tecnologia simile.
Thunder82
09-04-2004, 21:15
Basta che vedi la 9600...
la 9600xt dissipa praticamente la stessa potenza della 9600pro, pur avendo ben 100MHz in più sul core, e questo è dovuto al low-k, presente sulla 9600xt e assente sulla 9600pro
Dark Schneider
09-04-2004, 21:30
Secondo me il doppio molex serve solo ad evitare che la corrente passi solo su una fila di pista. Probabilmente ci sono due piste separate e quindi con due molex si riesce a tenere la densità della corrente più bassa. Secondo me è solo per sto motivo. Non è che vuole chissà che di potenza di watt...forse a The Inquirer la visione del doppio molex sta facendo degli effetti strani.
Thunder82
09-04-2004, 21:41
Originariamente inviato da Dark Schneider
Secondo me il doppio molex serve solo ad evitare che la corrente passi solo su una fila di pista. Probabilmente ci sono due piste separate e quindi con due molex si riesce a tenere la densità della corrente più bassa. Secondo me è solo per sto motivo. Non è che vuole chissà che di potenza di watt...forse a The Inquirer la visione del doppio molex sta facendo degli effetti strani.
E' quello che avevo detto io! :D
Cmq sicuramente ci vorrà un Alimentatore con la A maiuscola...
Dark Schneider
09-04-2004, 21:44
Originariamente inviato da Thunder82
E' quello che avevo detto io! :D
Cmq sicuramente ci vorrà un Alimentatore con la A maiuscola...
E' lo stesso concetto che avevi detto te perchè secondo me è proprio come hai detto te.
Che ci vorrà un Ali con le palle mi sembra ovvio, però a The Inquirer qlc effetto "tossico" la visione dei due molex lo sta facendo.:D
Che poi oggi ha aumentato i transistor a 220 milioni.
KenMasters
10-04-2004, 00:25
da parte mia ho gia fatto potenziare il mio impianto elettrico, non si sa mai! Basteranno 6 kilowattora? :sofico:
Originariamente inviato da yossarian
si
e come fa se l'anisotropico dell'R100 s basa solamente sul filtro bilineare?
Originariamente inviato da yossarian
questa mi giunge nuova; le 3 TMU darebbero un vantaggio all'R100 se avesse 4 pipeline di rendering, come l'R200, oppure se l'R200 avesse bisogno di accedere alla ram video per applicare la terza texture. Invece l'R200 utilizza un ciclo di loop back interno, risparmiando, comunque, parecchio tempo, pur eseguendo i calcoli in due cicli di clock anzichè uno (però elabora 4 pixel contro i 2 dell'R100). Se è come dici, la cosa va studiata un po' più nel dettaglio.
eppure è così.. :confused:
bYeZ!
Thunder82
10-04-2004, 01:23
Originariamente inviato da KenMasters
da parte mia ho gia fatto potenziare il mio impianto elettrico, non si sa mai! Basteranno 6 kilowattora? :sofico:
Casomai 6 kilowatt, non 6 kilowattora...
Niente paura raga:) ....perchè quei famigerati 480W sono riferiti sicuramente ad ali "generici":sofico: ....infatti piu' che 480W "nominali" sono 480W max!!!! :D e se andiamo a vedere le caratteristiche di un ali generigo da 500W(max) questo a +12V(la tensione rischiesta nei molex) sputa fuori (solo) 16A:rolleyes: ........:eek:
quando invece il mio Ali in signa e da 350W(nominali) e a +12V sputa fuori ben 17A:eek: :eek: :D ....
Insomma se avete un Ali di buna qulità >=350W secondo me potete dormire sogni tranquilli....:ronf:
Thunder82
10-04-2004, 03:24
Originariamente inviato da Daytona
Niente paura raga:) ....perchè quei famigerati 480W sono riferiti sicuramente ad ali "generici":sofico: ....infatti piu' che 480W "nominali" sono 480W max!!!! :D e se andiamo a vedere le caratteristiche di un ali generigo da 500W(max) questo a +12V(la tensione rischiesta nei molex) sputa fuori (solo) 16A:rolleyes: ........:eek:
quando invece il mio Ali in signa e da 350W(nominali) e a +12V sputa fuori ben 17A:eek: :eek: :D ....
Insomma se avete un Ali di buna qulità >=350W secondo me potete dormire sogni tranquilli....:ronf:
Guarda che al molex arrivano anche i +5.0...
Originariamente inviato da Dark Schneider
E' lo stesso concetto che avevi detto te perchè secondo me è proprio come hai detto te.
:wtf:
zerothehero
10-04-2004, 09:53
Originariamente inviato da Koji
Me cojoni!!! :eek: :muro: :mc:
:asd:
spero di no perchè dopo che ho speso un fracello di soldi per comprare lo zalman 400 w silent non ho alcuna intenzione di cambiare alimentatore..
cmq la ddr3 tre consuma molto meno di una ddr2...
http://www.tomshw.it/guides/graphic/20040405/images/image025.gif
almeno 15 watt di meno...
altro che prescott cmq già le schede disponibili sul mercato divorano una quantità enorme di watt..
http://www.tomshw.it/guides/graphic/20040405/images/image023.gif
http://www.tomshw.it/guides/graphic/20040405/images/image024.gif
Originariamente inviato da Thunder82
Guarda che al molex arrivano anche i +5.0...
:wtf: ....se misuri la tensione ti da 12V non 5V:eh: ....i 5V gli arriveranno dal PCI....
:)
Originariamente inviato da Daytona
:wtf: ....se misuri la tensione ti da 12V non 5V:eh: ....i 5V gli arriveranno dal PCI....
:)
in un molex arrivano +12 e +5 e due a potenziale 0
Dark Schneider
10-04-2004, 11:33
Non dovrebbero essere di certo le memorie DDR3 il problema del NV40, perchè le DDR3 consumano il 10% in meno rispetto alle DDR2 sia normalmente e sia sotto OC.
Guardate qui
http://www.tech-report.com/reviews/2004q1/geforcefx-5700u-gddr3/index.x?pg=1
Quindi è la GPU semplicemente, se davvero ne ha 210 (anzi 220 adesso ha sparato the inquirer) di milioni di transistor...vuol dire che è la GPU.
Cmq il Corsini ricordo quando uscì il rumors dei 210 milioni(prima del cebit)....era stato qlc giorno prima ad un meeting nVidia......e disse che 200 milioni era fuori dal mondo.
Quindi pare era un esagerazione.
Poi vabbè non so....magari adesso che è andato a San Francisco...e che ha visto sample..che gli hanno spiegato per bene specifiche e architettura..può anche essere che alla fine i transistor ne sono proprio oltre 200. Però boh...
Dark Schneider
10-04-2004, 11:47
Originariamente inviato da Daytona
Niente paura raga:) ....perchè quei famigerati 480W sono riferiti sicuramente ad ali "generici":sofico: ....infatti piu' che 480W "nominali" sono 480W max!!!! :D e se andiamo a vedere le caratteristiche di un ali generigo da 500W(max) questo a +12V(la tensione rischiesta nei molex) sputa fuori (solo) 16A:rolleyes: ........:eek:
quando invece il mio Ali in signa e da 350W(nominali) e a +12V sputa fuori ben 17A:eek: :eek: :D ....
Insomma se avete un Ali di buna qulità >=350W secondo me potete dormire sogni tranquilli....:ronf:
I 480 Watt sono un assurdità anche per ali generici a mio parere.
Originariamente inviato da checo
in un molex arrivano +12 e +5 e due a potenziale 0
:doh: ....ho svarionato con il tester!!!!!!:hic: .....:D
comunque il discorso da me fatto per i +12V vale anche per i +5V;) ...: un Ali generico da 500W a +5v sputa 30A:rolleyes: ....mentre un Ali di marca (tipo il mio) da 350W a +5V ne sputa 32A:D
1100000110100000
halduemilauno
10-04-2004, 12:29
Originariamente inviato da Dark Schneider
Non dovrebbero essere di certo le memorie DDR3 il problema del NV40, perchè le DDR3 consumano il 10% in meno rispetto alle DDR2 sia normalmente e sia sotto OC.
Guardate qui
http://www.tech-report.com/reviews/2004q1/geforcefx-5700u-gddr3/index.x?pg=1
Quindi è la GPU semplicemente, se davvero ne ha 210 (anzi 220 adesso ha sparato the inquirer) di milioni di transistor...vuol dire che è la GPU.
Cmq il Corsini ricordo quando uscì il rumors dei 210 milioni(prima del cebit)....era stato qlc giorno prima ad un meeting nVidia......e disse che 200 milioni era fuori dal mondo.
Quindi pare era un esagerazione.
Poi vabbè non so....magari adesso che è andato a San Francisco...e che ha visto sample..che gli hanno spiegato per bene specifiche e architettura..può anche essere che alla fine i transistor ne sono proprio oltre 200. Però boh...
rilancia.
222.
http://www.theinquirer.net/?article=15268
ciao.
;)
-=Krynn=-
10-04-2004, 12:44
vai a vedere che tra un po' ne ha 250:rolleyes:
Dark Schneider
10-04-2004, 12:47
Originariamente inviato da halduemilauno
rilancia.
222.
http://www.theinquirer.net/?article=15268
ciao.
;)
Ah si? A quando l'orgasmo? Lo si può comprare in un sexy shop sto NV40? Ha il viagra incorporato nella GPU?
:rolleyes:
Secondo me The Inquirer non si sente appagato sessualmente e allora vuole usare NV40 per determinati scopi.:asd:
halduemilauno
10-04-2004, 12:50
Originariamente inviato da Dark Schneider
Ah si? A quando l'orgasmo? Lo si può comprare in un sexy shop sto NV40? Ha il viagra incorporato nella GPU?
:rolleyes:
Secondo me The Inquirer non si sente appagato sessualmente e allora vuole usare NV40 per determinati scopi.:asd:
:D :D
KenMasters
10-04-2004, 12:59
Con tutta questa potenza finalmente possiamo far girare due o tre giochi contemporaneamente a 100 fps. Che figata, con una mano a far cry e con l'altra a doom3!! auhauhuhaauhu
"Nvidia officially told me a few days back in London that we won't get any samples from them since we are not a review site. "
:asd: c sono rimasti maluccio poverini :D
bYeZ!
Originariamente inviato da Daytona
:doh: ....ho svarionato con il tester!!!!!!:hic: .....:D
comunque il discorso da me fatto per i +12V vale anche per i +5V;) ...: un Ali generico da 500W a +5v sputa 30A:rolleyes: ....mentre un Ali di marca (tipo il mio) da 350W a +5V ne sputa 32A:D
1100000110100000
concordo il mio chieftec da 320W da la pasta a tutti i 400W generici senza problemi
il mio da 320 ne butta 30a sui 5v 15a sui 12v e 35a sui 3.3v
- NUOVE INDISCREZIONI NVIDIA GEFORCE 6800 ULTRA...
Segnalata da Antonio 10/4/2004 - 13.52 COMMENTA LA NEWS
Mancano ormai quattro giorni alla presentazione europea del nuovo chip grafico GeForce 6800 Ultra, meglio noto come nV 40.
Secondo le ultime indiscrezioni sembra confermato che il chip sia composto da ben 16 pipeline di rendering fisiche dotate ognuna di una TMU (Texture Mapping Unit) e in casi particolari quando si elabora solo il valore Z, la nuova architettura dovrebbe fungere da 32x0, quindi potrebbe elaborare ben 32 pixel per clock rispetto agli 8 massimi consentiti dall'attuale generazione nV3X, dotata di sole 4 pipeline fisiche.
Il GeForce 6800 e derivati si avvarranno di una nuova tecnica per la gestione dell'Anti Aliasing denominata High Quality AA - Rotated Grid full MTR multi target rendering che dovrebbe consentire un miglioramento grafico decisamente elevato rispetto all'attuale Ordered Grid utilizzato nella famiglia GeForce FX.
Sembra inoltre che nV40 sia composto da un numero enorme di transistor, le ultime indiscrezioni parlando di ben 222 milioni rispetto ai 130 del GeForce FX.
La nuova gpu verrà costruita nell'impianto produttivo di IBM situato ad East Fishkil in New York e si avvarrà del set di ForceWare 60.70, che sarà il primo a garantirne il supporto.
Confermato l'utilizzo di memorie DDR-III alla frequenza di 550Mhz (1100 reali) mentre rimane sconosciuto il clock defintivo della GPU.
In basso postiamo una nuova immagine della 6800 Ultra apparsa ieri on-line:
http://www.hardware-mania.com/news/6800U_2.jpg
fonte www.hardware-mania.com
yossarian
10-04-2004, 13:38
Originariamente inviato da ATi7500
e come fa se l'anisotropico dell'R100 s basa solamente sul filtro bilineare?
bYeZ!
ci sono da chiarire alcune cose; lo schema a blocchi di una TMU prevede una cache, un circuito che selezioni il/i texel, un combinatore; le TMU attuali possono possono contemporaneamente 3 diversi texel ricavati da uno stesso texel di partenza in single pass (ad esempio come succede nelle operazioni di mip mapping o con l'AA di tipo MS). In una pipeline con più TMU, queste ultime sono in parallelo, ma presentano anche una connessione di tipo seriale (il combinatore della TMU0 è connesso con quello della TMU1 e quest'ultimo con quello della TMU2 e così via, in cascata).
Quindi alcune operazioni, come il bilinear filtering con mip mapping, diventa un'operazione eseguibile in un solo passaggio anche da una sola TMU; il bilinear filtering with mip mapping and detail textures (l'anisotropic filtering puro e semplice implementato su Radeon e GF2) è un'operazione da 2 passate su 1 sola TMu e da singola passat con 2 TMU; il trilinear filtering con mip mapping si esegue in unica passata con 2 TMU; quando si passa ad eseguire combinazioni di operazioni un po' più complesse, la terza TMU diventa importante; ad esempio nel trilinear filtering with detail textures (un anisotropico basato sul trilinear) con 2 TMU occorrono 2 passate, con 3 TMU si opera in unica passata. Stesso discorso quando si esegue un bilinear filtering with projected and detail textures: servono 2 passate con 2 TMU e una sola con 3 TMU.
Originariamente inviato da yossarian
ci sono da chiarire alcune cose; lo schema a blocchi di una TMU prevede una cache, un circuito che selezioni il/i texel, un combinatore; le TMU attuali possono possono contemporaneamente 3 diversi texel ricavati da uno stesso texel di partenza in single pass (ad esempio come succede nelle operazioni di mip mapping o con l'AA di tipo MS). In una pipeline con più TMU, queste ultime sono in parallelo, ma presentano anche una connessione di tipo seriale (il combinatore della TMU0 è connesso con quello della TMU1 e quest'ultimo con quello della TMU2 e così via, in cascata).
Quindi alcune operazioni, come il bilinear filtering con mip mapping, diventa un'operazione eseguibile in un solo passaggio anche da una sola TMU; il bilinear filtering with mip mapping and detail textures (l'anisotropic filtering puro e semplice implementato su Radeon e GF2) è un'operazione da 2 passate su 1 sola TMu e da singola passat con 2 TMU; il trilinear filtering con mip mapping si esegue in unica passata con 2 TMU; quando si passa ad eseguire combinazioni di operazioni un po' più complesse, la terza TMU diventa importante; ad esempio nel trilinear filtering with detail textures (un anisotropico basato sul trilinear) con 2 TMU occorrono 2 passate, con 3 TMU si opera in unica passata. Stesso discorso quando si esegue un bilinear filtering with projected and detail textures: servono 2 passate con 2 TMU e una sola con 3 TMU.
hmmmmmm allora nn riesco a capire come mai nn hanno implementato da subito un anisotropico d tipo trilinear..
e poi su quel discorso delle tmu collegate a livello seriale...quando si compie un operazione ke usa solo una TMU vengono introdotte delle latenze dovute alle altre 2 tmu ke nn vengono sfruttate in quel passaggio? oppure possono compiere qualche calcolo indipendente anche loro?
bYeZ!
Originariamente inviato da checo
35a sui 3.3v
:eek: ....ottimo per overCK:D
yossarian
10-04-2004, 13:57
Originariamente inviato da ATi7500
hmmmmmm allora nn riesco a capire come mai nn hanno implementato da subito un anisotropico d tipo trilinear..
e poi su quel discorso delle tmu collegate a livello seriale...quando si compie un operazione ke usa solo una TMU vengono introdotte delle latenze dovute alle altre 2 tmu ke nn vengono sfruttate in quel passaggio? oppure possono compiere qualche calcolo indipendente anche loro?
bYeZ!
no, in quel caso il collegamento seriale è bypassato, poichè tutte le TMU sono anche connesse in parallelo e hanno un accesso riservato ai circuiti a valle. Di conseguenza, ogni TMU è indipendente finchè il programma non richiede che, ad esempio, siano combinati i risultati di 2 TMU o che l'output di una debba servire da input per la successiva.
Il motivo per cui non hanno introdotto subito il trilinear è che, in caso di operazioni più complesse di un semplice filtraggio anisotropico si sarebbero avuti vistosi cali prestazionali. Tra l'altro l'anisotropico utilizzato dalla Radeon non è basato su un bilinear di tipo "ortodosso" ma è, diciamo, un po' personalizzato (e permette di ottenere prestazioni leggermente superiori al tradizionale, senza perdita di qualità, tranne che in qualche particolare circostanza in cui può dare origine a qualche artefatto).
Sul discorso 8500/7500 e EMBM c'è da studarci un po' su; comunque la differenza di prestazioni non dipende dall'assenza della terza TMU, perchè l'R200 si basa su un principio di funzionamento delle pipeline che fa uso di cicli di loop back, al contrario dei chip DX7 (e della Parhelia)
Originariamente inviato da yossarian
no, in quel caso il collegamento seriale è bypassato, poichè tutte le TMU sono anche connesse in parallelo e hanno un accesso riservato ai circuiti a valle. Di conseguenza, ogni TMU è indipendente finchè il programma non richiede che, ad esempio, siano combinati i risultati di 2 TMU o che l'output di una debba servire da input per la successiva.
Il motivo per cui non hanno introdotto subito il trilinear è che, in caso di operazioni più complesse di un semplice filtraggio anisotropico si sarebbero avuti vistosi cali prestazionali. Tra l'altro l'anisotropico utilizzato dalla Radeon non è basato su un bilinear di tipo "ortodosso" ma è, diciamo, un po' personalizzato (e permette di ottenere prestazioni leggermente superiori al tradizionale, senza perdita di qualità, tranne che in qualche particolare circostanza in cui può dare origine a qualche artefatto).
Sul discorso 8500/7500 e EMBM c'è da studarci un po' su; comunque la differenza di prestazioni non dipende dall'assenza della terza TMU, perchè l'R200 si basa su un principio di funzionamento delle pipeline che fa uso di cicli di loop back, al contrario dei chip DX7 (e della Parhelia)
però quante cose ke sto imparando :) ;)
per il discorso dell'embm, m documenterò e in caso aprirò un thread a parte ;) grazie delle spiegazioni esaurienti
bYeZ!
http://www.3dchipset.com/temp/6800.zip
16 pipes confermate e 32 shader unit, insomma una belva anche se molto probabilmente ha bisogno di ali molto potenti .
Dark Schneider
10-04-2004, 18:34
Originariamente inviato da dwfgerw
http://www.3dchipset.com/temp/6800.zip
16 pipes confermate e 32 shader unit, insomma una belva anche se molto probabilmente ha bisogno di ali molto potenti .
Azz...che è? Mo lo scarico va!! :)
Dark Schneider
10-04-2004, 18:37
Ragà ma una rivista come cavolo f ad avere quelle info e publicarle? Cioè nel senso...già conosce il nome,ecc.
ho finito di leggere tutto l'articolo, sembra un animale, dalle 4 alle 8 volte più veloce della 5950 nell'esecuzione degl shader, hanno corretto il tiro di brutto con questa nv40
http://www.hardware-mania.com/news/6800U_2.jpg
da hardware-mania.com
Originariamente inviato da Dark Schneider
Ragà ma una rivista come cavolo f ad avere quelle info e publicarle? Cioè nel senso...già conosce il nome,ecc.
Secondo me quel link dura poco! :asd:
Dark Schneider
10-04-2004, 18:47
Ma sarà un esclusiva di quella rivista che nVidia ha dato?
Perchè insomma se viene publicato pure da una rivista...fa un certo effetto. Non credo che sennò nVidia dà il permesso di publicare e mettere delle foto.
Tra l'altro dalla foto delle pagine...non mi pare essere proprio la stessa.
Dark Schneider
10-04-2004, 18:48
Originariamente inviato da Raven
Secondo me quel link dura poco! :asd:
Io me lo son già scaricato il file!!:sofico:
La foto dell'articolo riporta 1 solo molex!!! :yeah:
halduemilauno
10-04-2004, 18:50
http://www.theinquirer.net/?article=15269
ciao.
;)
Dark Schneider
10-04-2004, 18:50
Originariamente inviato da Raven
La foto dell'articolo riporta 1 solo molex!!! :yeah:
Infatti mi son editato...dopo aver rivisto..tra l'altro ha parecchi condensatori.
Dark Schneider
10-04-2004, 18:55
Originariamente inviato da halduemilauno
http://www.theinquirer.net/?article=15269
ciao.
;)
Te pareva......poteva mancare The Inquirer? Almeno adesso non ha detto nulla di esagerato!!:D
halduemilauno
10-04-2004, 18:58
Originariamente inviato da Dark Schneider
Te pareva......poteva mancare The Inquirer? Almeno adesso non ha detto nulla di esagerato!!:D
ma lo sai si che fra poche ore tocca chiudere tutto e farne un'altro?
ciao.
;)
Thunder82
10-04-2004, 19:05
Originariamente inviato da halduemilauno
ma lo sai si che fra poche ore tocca chiudere tutto e farne un'altro?
ciao.
;)
Non scade il 13 l'NDA? :confused: :D
Cmq ho letto un po' l'articolo... 32 SHADER UNIT! Mostruoso, spero proprio che nVidia si riprenda con questa scheda :)
p.s. nell'articolo pare confermato che i transistor sono più di 200 milioni
halduemilauno
10-04-2004, 19:09
Originariamente inviato da Thunder82
Non scade il 13 l'NDA? :confused: :D
Cmq ho letto un po' l'articolo... 32 SHADER UNIT! Mostruoso, spero proprio che nVidia si riprenda con questa scheda :)
p.s. nell'articolo pare confermato che i transistor sono più di 200 milioni
di maximum pc non mi fiderei molto. e cmq mi sono rifiutato di postarlo. si ora Frisco.
ciao.
:) :)
Thunder82
10-04-2004, 19:12
Probabilmente con 32 shader unit intendeva la sua possibilità di operare in 32x0 al posto di 16x1 in alcune situazioni particolari (come nv30 che passava da 4x2 a 8x1)
si il bello che del r420 nn si sà ancora nulla di ufficiale!! secondo me lui sarà il mostro
halduemilauno
10-04-2004, 19:16
Originariamente inviato da umile
si il bello che del r420 nn si sà ancora nulla di ufficiale!! secondo me lui sarà il mostro
nulla di ufficiale si come per l'NV40. ma di ufficioso dell' R420 se ne sa molto.
ciao.
:) :)
Thunder82
10-04-2004, 19:17
Originariamente inviato da umile
si il bello che del r420 nn si sà ancora nulla di ufficiale!! secondo me lui sarà il mostro
Secondo me saranno molto allineate, con una leggera prevalenza di NV40.
Più che altro per questioni statistiche, ultimamente si sono parecchio alternate le schede migliori:
geforce3<radeon 8500<geforce4<9700/9800...
In teoria adesso toccherebbe a una nVidia :D
halduemilauno
10-04-2004, 19:19
Originariamente inviato da Thunder82
Secondo me saranno molto allineate, con una leggera prevalenza di NV40.
Più che altro per questioni statistiche, ultimamente si sono parecchio alternate le schede migliori:
geforce3<radeon 8500<geforce4<9700/9800...
In teoria adesso toccherebbe a una nVidia :D
da quella linea leverei la 8500. mai stata la migliore.
;)
Thunder82
10-04-2004, 19:22
Originariamente inviato da halduemilauno
da quella linea leverei la 8500. mai stata la migliore.
;)
Beh, è migliore di una geforce3, è indubbio. Ed è anche indubbio che sia peggiore della Geforce4 (anche se tecnologicamente ha i ps 1.4 che la gf4 non ha). Io la lascerei là la 8500 :)
Originariamente inviato da halduemilauno
da quella linea leverei la 8500. mai stata la migliore.
;)
Fai un salto nel mercatino, vedi quante GF3 ci sono e quante 8500/9100 invece ;)
halduemilauno
10-04-2004, 19:28
Originariamente inviato da pandyno
Fai un salto nel mercatino, vedi quante GF3 ci sono e quante 8500/9100 invece ;)
con questo?
rifletti su questo invece.
geffo3 febbraio 2001.
8500 ottobre 2001.
geffo3ti200/500 novembre 2001.
geffo4ti febbraio 2002.
a questo aggiungi che la 8500 è stata afflitta da driver non ottimali(per non dire altro)per almeno sei mesi. mi dici/dite quando la 8500 è stata la migliore.
ciao.
:) :)
PS oppure abbiamo un concetto diverso del significato migliore.
;)
Con questo sei sempre troppo di parte. ;)
non fraintendere, ma il ''valore' degli avversari non lo riconosci mai ;)
le 8500/9100 sono state vendute in quantità industriali rispetto le gf3 non puoi dire che sia stati un insuccesso.
halduemilauno
10-04-2004, 19:32
Originariamente inviato da pandyno
Con questo sei sempre troppo di parte. ;)
io? ho postato dati cronologici sono di parte? o la faccenda driver di allora non ti risulta?
ciao.
;)
Norbrek™
10-04-2004, 19:33
Originariamente inviato da pandyno
Con questo sei sempre troppo di parte. ;)
non fraintendere, ma il ''valore' degli avversari non lo riconosci mai ;)
le 8500/9100 sono state vendute in quantità industriali rispetto le gf3 non puoi dire che sia stati un insuccesso.
Bhè magari lui intende solo dal lato prestazionale, non del numero di vendite, se è per questo anche la geffo4 mx440 ha spopolato, ma non è uno schedone:sofico:
Dark Schneider
10-04-2004, 19:38
Originariamente inviato da umile
si il bello che del r420 nn si sà ancora nulla di ufficiale!! secondo me lui sarà il mostro
Scusa mi dici dove sono le specifiche ufficiali di NV40? Sul sito nVidia non lo trovo.
halduemilauno
10-04-2004, 19:38
Originariamente inviato da pandyno
Con questo sei sempre troppo di parte. ;)
non fraintendere, ma il ''valore' degli avversari non lo riconosci mai ;)
le 8500/9100 sono state vendute in quantità industriali rispetto le gf3 non puoi dire che sia stati un insuccesso.
a parte che ci si può mettere d'accordo sulle vendite. io non ho detto insuccesso. ho solo detto che non è mai stata la migliore per i motivi detti. schiacciata(temporalmente)come è stata da altre schede. quanto è stata migliore un mese? forse. ma la sua superiorità sulla geffo3 è stata postuma con appunto l'avvento di driver che a posteriori ne tirarono fuori dei pregi ma quando tutto questo accadde ormai erano uscite ben altre schede.
spero di esser stato chiaro.
non accusare altri di esser di parte proprio non ti si addice.
il tutto in grande amicizia.
ciao.
:) :)
PS anche le geffomx non sono state un'insuccesso.
Da che mondo è mondo Il successo di un prodotto lo determinano le vendite ;)
Se ATI non ne avesse vendute quelle quantita... ;)
Dark Schneider
10-04-2004, 19:42
Originariamente inviato da halduemilauno
di maximum pc non mi fiderei molto. e cmq mi sono rifiutato di postarlo. si ora Frisco.
ciao.
:) :)
Perchè? Non è affidabile? Sinceramente non ricordo molto se magari ha saprato qualche caxxata in passato.
halduemilauno
10-04-2004, 19:42
Originariamente inviato da pandyno
Da che mondo è mondo Il successo di un prodotto lo determinano le vendite ;)
Se ATI non ne avesse vendute quelle quantita... ;)
ma perchè ti dai la zappa sui piedi. in questo che centrano le vendite.
ti ho fatto l'esempio delle mx.
ciao.
;)
PS c'è la partita a domani.
;)
Thunder82
10-04-2004, 19:42
Originariamente inviato da halduemilauno
a parte che ci si può mettere d'accordo sulle vendite. io non ho detto insuccesso. ho solo detto che non è mai stata la migliore per i motivi detti. schiacciata(temporalmente)come è stata da altre schede. quanto è stata migliore un mese? forse. ma la sua superiorità sulla geffo3 è stata postuma con appunto l'avvento di driver che a posteriori ne tirarono fuori dei pregi ma quando tutto questo accadde ormai erano uscite ben altre schede.
spero di esser stato chiaro.
non accusare altri di esser di parte proprio non ti si addice.
il tutto in grande amicizia.
ciao.
:) :)
PS anche le geffomx non sono state un'insuccesso.
Devi anche contare che la 8500 costava 600000£ e la Ti500 era oltre il milione. ;)
Cmq tecnologicamente la 8500 era meglio della GF3, ok c'erano i driver, ma era cmq un gradino sopra. Il suo sconvolgente rapporto prezzo/prestazioni era il suo più grande punto di forza ed è per quello che ne hanno vendute a caterve, costava una fascia media e andava al top.
Originariamente inviato da halduemilauno
a parte che ci si può mettere d'accordo sulle vendite. io non ho detto insuccesso. ho solo detto che non è mai stata la migliore per i motivi detti. schiacciata(temporalmente)come è stata da altre schede. quanto è stata migliore un mese? forse. ma la sua superiorità sulla geffo3 è stata postuma con appunto l'avvento di driver che a posteriori ne tirarono fuori dei pregi ma quando tutto questo accadde ormai erano uscite ben altre schede.
spero di esser stato chiaro.
Chiarissimo, abbiamo un concetto diverso di successo ;)
non accusare altri di esser di parte proprio non ti si addice.
il tutto in grande amicizia.
ciao.
:) :)
Oddio devo essere onesto mi è scappato, cerca di essere più imparziale pero' ;)
Stà povera ATI proprio non ti piace nè? :D
PS anche le geffomx non sono state un'insuccesso.
No affatto
insieme alle V3 sono le schede più vendute di sempre
;)
Dark Schneider
10-04-2004, 21:16
Cmq ragà penso che Hal parlava più di Leadship che di Prodotto Migliore.
In effetti la 8500 non ha fatto perdere la Leadership a nVidia...che l'ha perso dopo le GeForce 4 Ti.
La Radeon 8500 è una scheda che Ati ha fatto slittare qlc mese dopo la GeForce 3 per alzarne le frequenze in modo da superare il prodotto nVidia. Tecnologicamente era più avanzata. Solo che i problemi dei drivers hanno fatto si che la scheda non è riuscita ad esprimersi al meglio durante il periodo in cui il prodotto di punta della concorrenza era la GeForce 3. I drivers sono maturati, i problemi risolti e poi è riuscita ad avere la meglio sul concorrente...però quando quest'ultimo aveva tirato fuori le GeForce 4 Ti ormai.
Oggi naturalmente si può dire che la 8500 era(ed è) tecnlogicamente un prodotto migliore rispetto alla GeForce 3 in quel periodo in cui entrambi si son scontrati. Naturalmente oggi chi compra un usato preferisce una 8500. :)
Non c'è bisogno di ricordare che invece Ati ha dato una bella mazzata a nVidia nell'ultimo anno e mezzo....nVidia è riuscita a recuperare abbastanza con il NV35...ma la Leadership è ancora di Ati, non ci son dubbi.
Naturalmente adesso speriamo bene per i prossimi chip video.
Sono molto fiducioso riguardo NV40 ed il Corsini ha detto che se deve sbilanciarsi...pare che nVidia con il nuovo chip abbia davvero imparato dai propri errori, che il NV30 sia solo uno sbiadito ricordo e che nei prossimi mesi vedremo un chip in grado di lottare ad armi pari con il concorrente. :)
Incrociamo le dita. :)
halduemilauno
10-04-2004, 21:35
Originariamente inviato da pandyno
Chiarissimo, abbiamo un concetto diverso di successo ;)
Oddio devo essere onesto mi è scappato, cerca di essere più imparziale pero' ;)
Stà povera ATI proprio non ti piace nè? :D
No affatto
insieme alle V3 sono le schede più vendute di sempre
;)
visto la partita bella.
allora ati son certo che piace più a me che a te nVidia.
una domanda ma secondo te quante V3 sono state vendute. lo chiedo perchè secondo me hai le idee un pò confuse.
un aiutino nel 99/2000 3dfx stava a meno del 10% nVidia gia stava sopra il 50%.
ciao.
;)
Dark Schneider
10-04-2004, 21:36
Ehi Hal ma cmq Pc Maximum non l'ho mai sentito nominare. In passato se ne uscito con qlc minchiata per caso?
Originariamente inviato da halduemilauno
allora ati son certo che piace più a me che a te nVidia.
Sicuro? non credo proprio.
sai che scheda video monto io ora? ;)
e che schede ti rifiuti di provare tu? ;)
una domanda ma secondo te quante V3 sono state vendute. lo chiedo perchè secondo me hai le idee un pò confuse.
ciao.
;)
Confuse?
non credo, fatti un giretto su ebay e te ne rendi conto ;)
Norbrek™
10-04-2004, 21:40
Originariamente inviato da pandyno
sai che scheda video monto io ora? ;)
Che scheda monti?
Originariamente inviato da Norbrek?
Che scheda monti?
eh se te lo dico non vale :p
Originariamente inviato da Norbrek™
Che scheda monti?
Io lo sò :)
La 6800Ultra :)
halduemilauno
10-04-2004, 21:43
Originariamente inviato da Dark Schneider
Ehi Hal ma cmq Pc Maximum non l'ho mai sentito nominare. In passato se ne uscito con qlc minchiata per caso?
mi ricordo qualche sciocchezza detta e per carità capita a tutti. ma soprattutto non me lo ricordo nel dire cose azzeccatissime.
però magari stavolta...
voglio dire la bontà o meno dell'NV40 non la vado a cercare da loro ecco. ma è anche vero che negli ultimi tempi non lo più seguito per i motivi detti prima.
ciao.
:) :)
Norbrek™
10-04-2004, 21:45
Originariamente inviato da Yagami
Io lo sò :)
La 6800Ultra :)
Bhè niente di che, io monto la radeon x800 xt:cool:
Norbrek™
10-04-2004, 21:46
Originariamente inviato da pandyno
eh se te lo dico non vale :p
NV1?:sofico: :D
Originariamente inviato da Norbrek?
NV1?:sofico: :D
Ne ho vista una nel mercatino, ero tentato, ma ha solo la correzione prospettica delle texture, niente bilineare, cosi' ho mollato. :D
Dark Schneider
10-04-2004, 21:49
Originariamente inviato da Norbrek™
Bhè niente di che, io monto la radeon x800 xt:cool:
Non vi scaldate. Ce l'ho più lungo io di voi!!:asd:
Norbrek™
10-04-2004, 21:49
Originariamente inviato da pandyno
Ne ho vista una nel mercatino, ero tentato, ma ha solo la correzione prospettica delle texture, niente bilineare, cosi' ho mollato. :D
Vabbè usa i poligoni curvi invece dei triangoli, è una cosa emozionante:p
halduemilauno
10-04-2004, 21:49
Originariamente inviato da pandyno
Sicuro? non credo proprio.
sai che scheda video monto io ora? ;)
e che schede ti rifiuti di provare tu? ;)
Confuse?
non credo, fatti un giretto su ebay e te ne rendi conto ;)
allora tu dici che una societa che aveva una presenza mondiale in schede video desktop pari a meno del 10% ha venduto tanti esemplari di un suo modello più di quante ne ha vendute una societa che controllava oltre il 50% del mercato mondiale.citiamo una sua coetanea geffo2.
ps ma tu sai quante schede video desktop con chip nVidia si vendono all'anno? ne hai un'idea anche approssimativa?
:) :)
Dark Schneider
10-04-2004, 21:50
Originariamente inviato da halduemilauno
mi ricordo qualche sciocchezza detta e per carità capita a tutti. ma soprattutto non me lo ricordo nel dire cose azzeccatissime.
però magari stavolta...
voglio dire la bontà o meno dell'NV40 non la vado a cercare da loro ecco. ma è anche vero che negli ultimi tempi non lo più seguito per i motivi detti prima.
ciao.
:) :)
Ah ecco....quindi Pc Maximum è un The Inquirer cartaceo!!!:D
halduemilauno
10-04-2004, 21:51
Originariamente inviato da Dark Schneider
Ah ecco....quindi Pc Maximum è un The Inquirer cartaceo!!!:D
ti prego non toccarmi the inquirer.
:D :D
Originariamente inviato da halduemilauno
allora tu dici che una societa che aveva una presenza mondiale in schede video desktop pari a meno del 10% ha venduto tanti esemplari di un suo modello più di quante ne ha vendute una societa che controllava oltre il 50% del mercato mondiale.citiamo una sua coetanea geffo2.
ps ma tu sai quante schede video desktop con chip nVidia si vendono all'anno? ne hai un'idea anche approssimativa?
:) :)
le gf2mx e le V3 (2000@3000) sono state le schede più vendute a cui i videogiocatori puntavano ;)
La V3 è dei tempi del TNT2 non prima.
Ps non hai risposto che scheda monto adesso ;)
halduemilauno
10-04-2004, 21:59
Originariamente inviato da pandyno
le gf2mx e le V3 (2000@3000) sono state le schede più vendute a cui i videogiocatori puntavano ;)
La V3 è dei tempi del TNT2 non prima.
Ps non hai risposto che scheda monto adesso ;)
non lo so. ma son sicuro che fra un pò per stupire gli altri lo dirai.
;)
Norbrek™
10-04-2004, 22:00
Originariamente inviato da halduemilauno
non lo so. ma son sicuro che fra un pò per stupire gli altri lo dirai.
;)
Io dico che monta una volari duo:sofico:
Originariamente inviato da halduemilauno
non lo so. ma son sicuro che fra un pò per stupire gli altri lo dirai.
;)
5900xt
non c' è bisogno di stupirsi, basta solo essere più ''aperti'' verso le tecnologie proposte da altre case sia da un lato che dall' altro.
Buona Pasqua a tutto ci si legge prossimamente ;)
Norbrek™
10-04-2004, 22:18
Originariamente inviato da pandyno
5900xt
non c' è bisogno di stupirsi, basta solo essere più ''aperti'' verso le tecnologie proposte da altre case sia da un lato che dall' altro.
Buona Pasqua a tutto ci si legge domani prossimamente ;)
In tutta sincerità preferico la soluzione offerta da ati, non perchè mi stia più simpatica, non mi piace la tifoseria da stadio, se in questo caso preferisco la 9800pro è per la sua maggiore "familiarità" con gli shader 2.0, perchè l'aa è leggermente migliore, e perchè mi da prestrazioni supoeriori con l'anisotropico non applicandolo a 360gradi come nvidia pur non avendo un impatto qualitativo negativo in questa generazione di giochi, nel tuo caso perchè hai optato per la soluzione nvidia? ;)
halduemilauno
10-04-2004, 22:19
Originariamente inviato da pandyno
5900xt
non c' è bisogno di stupirsi, basta solo essere più ''aperti'' verso le tecnologie proposte da altre case sia da un lato che dall' altro.
Buona Pasqua a tutto ci si legge prossimamente ;)
infatti io ho subito detto che lo stupore sarebbe stato degli altri.non certo il mio.
se beccamo.
;)
Ritornando in topic...
La scheda mostrata sulle pagine di quella rivista ha un solo molex e molti più condensatori, pur restando su slot AGP.
Secondo il mio modestissimo parere quella potrebbe essere si una NV40, ma la 6800 liscia, e non ultra.
La liscia avrebbe meno richieste di potenza della ultra, viste le probabili frequenze inferiori, e quindi visto l'unica fonte di alimentazione necessiterebbe di un maggior numero di condensatori per mantenere più stabile la tensione.
Che ne dite??
halduemilauno
10-04-2004, 22:24
Originariamente inviato da xpiuma
Ritornando in topic...
La scheda mostrata sulle pagine di quella rivista ha un solo molex e molti più condensatori, pur restando su slot AGP.
Secondo il mio modestissimo parere quella potrebbe essere si una NV40, ma la 6800 liscia, e non ultra.
La liscia avrebbe meno richieste di potenza della ultra, viste le probabili frequenze inferiori, e quindi visto l'unica fonte di alimentazione necessiterebbe di un maggior numero di condensatori per mantenere più stabile la tensione.
Che ne dite??
intanto bravo che sei tornato in topic.
per il resto può essere tutto. ma tanto ormai mancano poche ore.
ciao.
;)
Dark Schneider
10-04-2004, 22:24
Originariamente inviato da xpiuma
Ritornando in topic...
La scheda mostrata sulle pagine di quella rivista ha un solo molex e molti più condensatori, pur restando su slot AGP.
Secondo il mio modestissimo parere quella potrebbe essere si una NV40, ma la 6800 liscia, e non ultra.
La liscia avrebbe meno richieste di potenza della ultra, viste le probabili frequenze inferiori, e quindi visto l'unica fonte di alimentazione necessiterebbe di un maggior numero di condensatori per mantenere più stabile la tensione.
Che ne dite??
C'ho pensato pure io. Però anche se ha frequenze minori la liscia i 200 milioni di transistor li ha sempre come la Ultra...ed i 200 milioni pesano a mio parere. :) Tipo da 5900XT a 5950 Ultra non cambiano.
Norbrek™
10-04-2004, 22:25
Originariamente inviato da Dark Schneider
C'ho pensato pure io. Però la liscia i 200 milioni di transistor li ha sempre come la Ultra, no?
Secondo la strategia usata sempre da nvidia dovrebbe essere così...
halduemilauno
10-04-2004, 22:27
Originariamente inviato da Dark Schneider
C'ho pensato pure io. Però anche se ha frequenze minori la liscia i 200 milioni di transistor li ha sempre come la Ultra...ed i 200 milioni pesano.
ma c'è la teoria che i chip siano...
ciao.
;)
Dark Schneider
10-04-2004, 22:29
Originariamente inviato da halduemilauno
ma c'è la teoria che i chip siano...
ciao.
;)
Sinceramente non ci credo a quella teoria...che ci siano due chip video...quello da 175 milioni e quello da 210 milioni. Una così grande differenza non è giustificata dalle frequenze minori. A meno che non abbia voluto fare una versione liscia ad 8 Pipeline e la Ultra a 16. Ma sinceamente nVidia non ha mai fatto questa diversificazione nella fascia alta...perchè dovrebbe ora?
halduemilauno
10-04-2004, 22:31
Originariamente inviato da Dark Schneider
Sinceramente non ci credo a quella teoria...che ci siano due chip video...quello da 175 milioni e quello da 210 milioni. Una così grande differenza non è giustificata dalle frequenze minori. A meno che non abbia voluto fare una versione liscia ad 8 Pipeline e la Ultra a 16. Ma sinceamente nVidia non ha mai fatto questa diversificazione nella fascia alta...perchè dovrebbe ora?
è quello che dico anch'io perchè dovrebbe ora?
ciao.
;)
Norbrek™
10-04-2004, 22:33
Originariamente inviato da halduemilauno
è quello che dico anch'io perchè dovrebbe ora?
ciao.
;)
Magari è la stessa con alcune pipe disattivate, stile 9500/9500pro e x800/pro/xt, che dite? E cambiando le specifiche di alimentazione impediscono che le mod possano funzionare......
halduemilauno
10-04-2004, 22:39
facciamo finta che è mezzanotte. fra 80 ore(+ o -)si saprà tutto.
ciao e buonanotte a tutti.
:) :)
Dark Schneider
10-04-2004, 22:42
Originariamente inviato da Norbrek™
Magari è la stessa con alcune pipe disattivate, stile 9500/9500pro e x800/pro/xt, che dite? E cambiando le specifiche di alimentazione impediscono che le mod possano funzionare......
Non penso perchè le 9500 e 9700 per dirti hanno 107 milioni di transistor entrambi. Se c'è un NV40 da 175 milioni ed uno da 210 milioni c'è di sicuro qualche differenza nettamente più importante. Anzi io direi due chip diversi.
Norbrek™
10-04-2004, 22:43
Originariamente inviato da Dark Schneider
Non penso perchè le 9500 e 9700 per dirti hanno 107 milioni di transistor entrambi. Se c'è un NV40 da 175 milioni ed uno da 210 milioni c'è di sicuro qualche differenza nettamente più importante.
Magari sono di meno perchè sottraggono il numero di transistor delle pipe disattivate..:sofico:
Evabbé, perchè vuoi farla finita?? No dai!! :D
Esiste anche la teoria che le schede siano diverse per il numero di pipeline (parlo di liscia e ultra), ma mi sembra strano, a meno che...
A meno che il chip sia lo stesso, ma quelli con problemi (tipo gli R300 con difetti) vengano montati su le schede liscie, e la differenza tra 2xx milioni di transistor e 175 milioni potrebbero essere proprio le 8 pipe disattivate (o 4...).
ByeZ!
Dark Schneider
10-04-2004, 22:45
Originariamente inviato da Norbrek™
Magari sono di meno perchè sottraggono il numero di transistor delle pipe disattivate..:sofico:
Eheh eh ma si parla di 35 milioni in più (tra l'altro oggi the inquirer ha portato da 210 a 222 tanto per cambiare).
Dark Schneider
10-04-2004, 22:46
Originariamente inviato da xpiuma
Evabbé, perchè vuoi farla finita?? No dai!! :D
Esiste anche la teoria che le schede siano diverse per il numero di pipeline (parlo di liscia e ultra), ma mi sembra strano, a meno che...
A meno che il chip sia lo stesso, ma quelli con problemi (tipo gli R300 con difetti) vengano montati su le schede liscie, e la differenza tra 2xx milioni di transistor e 175 milioni potrebbero essere proprio le 8 pipe disattivate (o 4...).
ByeZ!
E' ma la 9500 liscia e la 9700 Pro hanno entrmbi 107 milioni di transistor....anche se la 9500 liscia funziona solo a 4 Pipeline...ne 107 milioni cmq.
http://www.theinquirer.net/images/articles/GF68002.jpg
http://www.theinquirer.net/images/articles/GF68001.jpg
http://www.theinquirer.net/images/articles/gf6800.jpg
Originariamente inviato da Thunder82
Probabilmente con 32 shader unit intendeva la sua possibilità di operare in 32x0 al posto di 16x1 in alcune situazioni particolari (come nv30 che passava da 4x2 a 8x1)
no due unità di tipo FP per pixel pipeline
;)
Dark Schneider
10-04-2004, 22:50
Originariamente inviato da halduemilauno
facciamo finta che è mezzanotte. fra 80 ore(+ o -)si saprà tutto.
ciao e buonanotte a tutti.
:) :)
Si ormai manca poco.
A domani Hal.
Originariamente inviato da Dark Schneider
E' ma la 9500 liscia e la 9700 Pro hanno entrmbi 107 milioni di transistor....anche se la 9500 liscia funziona solo a 4 Pipeline...ne 107 milioni cmq.
Si, lo so...
Magari visto che questi sono ancora dati ufficiosi si potrebbe pensare che i rumors che dicono 175 sono originati da "qualcuno" che sa delle pipe disattivate, ed i 2xx del chip completo, finché non usciranno i dati ufficali il dubbio resterà.
Buonanotte!
Dark Schneider
10-04-2004, 23:00
Originariamente inviato da dwfgerw
http://www.theinquirer.net/images/articles/GF68002.jpg
http://www.theinquirer.net/images/articles/GF68001.jpg
http://www.theinquirer.net/images/articles/gf6800.jpg
Beh la GPU è proprio bella :)
Dark Schneider
10-04-2004, 23:04
Originariamente inviato da xpiuma
Si, lo so...
Magari visto che questi sono ancora dati ufficiosi si potrebbe pensare che i rumors che dicono 175 sono originati da "qualcuno" che sa delle pipe disattivate, ed i 2xx del chip completo, finché non usciranno i dati ufficali il dubbio resterà.
Buonanotte!
Secondo me questa ipotesi è uscita perchè nessuno riesce a capire quanti transistor abbia...e quindi qlc aveva immaginato che IBM produceva quella a 175 milioni e TSMC quella a 210 milioni. Ma che poi non vedo il senso. Di solito sono le altre fasce che ne hanno di meno...quelli della stessa fascia son uguali.
Ma se sta cosa di NV40 uscirà su PCI Express (che già fornisce corrente in + rispetto al tradizionale agp), che serviranno i 2 molex :confused:
Norbrek™
10-04-2004, 23:27
NV40 sarà su agp8x, magari le prossime su pci express avranno giustamente un molex....
Secondo la roadmap nVidia postata una ventina di pagine fa NV40 sarà solamente su AGP8X, mentre la versione su PCI-Express sarà l'NV45 e derivati.
Quella scheda probabilmente avrà 1 solo molex.
Dark Schneider
10-04-2004, 23:32
Originariamente inviato da Yagami
Ma se sta cosa di NV40 uscirà su PCI Express (che già fornisce corrente in + rispetto al tradizionale agp), che serviranno i 2 molex :confused:
Ma forse si dice che il 13 nVidia mostri sia la versione Agp e sia quella Pci Express.....si dice.
Thunder82
10-04-2004, 23:36
Originariamente inviato da Dark Schneider
Ma forse si dice che il 13 nVidia mostri sia la versione Agp e sia quella Pci Express.....si dice.
sì, però la versone pci-express sarà un nv40 col bridge pci-express. La versione nativa pci-express sarà nv45.
Dark Schneider
10-04-2004, 23:47
Originariamente inviato da Thunder82
sì, però la versone pci-express sarà un nv40 col bridge pci-express. La versione nativa pci-express sarà nv45.
Si infatti è inutile che lo presenta adesso.
Cmq ragà se per caso nVidia cambia strategia e diversifica la liscia dalla ultra con dei castramenti...col cavolo che la compro la liscia.
Cioè non ha mai fatto una simile strategia. Ha sempre usato le frequenze per diversificare. Ma se cambia non la compro la liscia. Cioè se entrambe hanno 16 Pipeline ok. Se entrambe hanno 8 Pipeline ok. Ma se una a 16 e l'altra ad 8...tiè!!! Non mi piace acquistare qlc che è diverso dal top. Cioè le frequenze fatele molto più basse, le memorie mettetele in modo che non salga nemmeno di 1 Mhz...di pessima qualità...ma a castrarmi la scheda assolutamente NO.
Norbrek™
11-04-2004, 00:09
Originariamente inviato da Dark Schneider
Si infatti è inutile che lo presenta adesso.
Cmq ragà se per caso nVidia cambia strategia e diversifica la liscia dalla ultra con dei castramenti...col cavolo che la compro la liscia.
Cioè non ha mai fatto una simile strategia. Ha sempre usato le frequenze per diversificare. Ma se cambia non la compro la liscia. Cioè se entrambe hanno 16 Pipeline ok. Se entrambe hanno 8 Pipeline ok. Ma se una a 16 e l'altra ad 8...tiè!!! Non mi piace acquistare qlc che è diverso dal top. Cioè le frequenze fatele molto più basse, le memorie mettetele in modo che non salga nemmeno di 1 Mhz...di pessima qualità...ma a castrarmi la scheda assolutamente NO.
E io sono d'accordissimo con te, infatti sono rimasto male anche per ati, dove la x800pro ha 12pipe e la x800xt ne ha 16, con il risultato che o spendo 500€ o non avrò il top, e questo mi scazza alquanto....
Esattamente quello che penso anch'io... sapere che la x800pro sarà "limitata" rispetto alla XT già parte "sfavorita" nella mia valutazione...
Thunder82
11-04-2004, 00:16
Originariamente inviato da Norbrek™
E io sono d'accordissimo con te, infatti sono rimasto male anche per ati, dove la x800pro ha 12pipe e la x800xt ne ha 16, con il risultato che o spendo 500€ o non avrò il top, e questo mi scazza alqaunto....
Semplice, non spendi i soldi e ti tieni la 9800pro, almeno finchè non cambiano tipo di marketing!:D
Norbrek™
11-04-2004, 00:17
Originariamente inviato da Thunder82
Semplice, non spendi i soldi e ti tieni la 9800pro, almeno finchè non cambiano tipo di marketing!:D
Hai ragione, è la soluzione migliore;)
Dark Schneider
11-04-2004, 00:25
Originariamente inviato da Norbrek™
E io sono d'accordissimo con te, infatti sono rimasto male anche per ati, dove la x800pro ha 12pipe e la x800xt ne ha 16, con il risultato che o spendo 500€ o non avrò il top, e questo mi scazza alquanto....
Che poi ragà non sono uno che crede nella "botta di culo" con la possibilità di abilitare le restanti Pipeline. A parte che se non riesce me la prendo lì. Ma pure se riesce sto sempre lì con la paura dietro l'angolo che prima o poi le Pipeline ri-abilitate dopo qlc mese iniziano a stressarsi parecchio...e inizino gli artefatti.
Perchè poi ste schede che si moddano non sono altro che quelle schede che qlc difettuccio di fabbricazione ce l'hanno e per questo hanno le Pipeline disabilitate e vendute a meno.
Thunder82
11-04-2004, 00:27
Originariamente inviato da Dark Schneider
Che poi ragà non sono uno che crede nella "botta di culo" con la possibilità di abilitare le restanti Pipeline. A parte che se non riesce me la prendo lì. Ma pure se riesce sto sempre lì con la paura dietro l'angolo che prima o poi le Pipeline ri-abilitate dopo qlc mese iniziano a stressarsi parecchio...e inizino gli artefatti.
Perchè poi ste schede che si moddano non sono altro che quelle schede che qlc difettuccio di fabbricazione ce l'hanno e per questo hanno le Pipeline disabilitate e vendute a meno.
Infatti, avrei l'incubo della scheda che si rompe... no no, preferisco spendere quello che posso per una scheda AFFIDABILE :)
Norbrek™
11-04-2004, 00:30
Originariamente inviato da Thunder82
Infatti, avrei l'incubo della scheda che si rompe... no no, preferisco spendere quello che posso per una scheda AFFIDABILE :)
A meno che non mi diano una garanzia di 2anni sulla scheda moddata:sofico:
Thunder82
11-04-2004, 00:31
Originariamente inviato da Norbrek™
A meno che non mi diano una garanzia di 2anni sulla scheda moddata:sofico:
In quel caso la prenderei! :D
Cmq mi sa che sicuramente qualche sito le proporrebbe moddate, ma se le faranno pagare come oro...
Dark Schneider
11-04-2004, 00:37
Ma che poi io personalmente vi dico, non sono nemmeno uno che si mette ad overcloccare la scheda video. Cioè se prendo la 6800 liscia...al massimo per qlc test la spingo un po' su, ma poi la terrei sempre a default come frequenze. Come la mia 4200: dal 2002 ad ora l'avrò OC sarà si e no 2-3 volte per qlc minuto..per fare qlc test. Sennò sta sempre a default:250/500 Perchè? Semplicemente perchè tanto non mi cambia nulla se sta a default o overcloccata, nel senso che gioco ugualmente bene. E' poi perchè se una gpu di fascia alta è identica e le frequenze diverse...la longevità della scheda sarà identica. Per la serie una 9800XT non è più longeva di una 9800 Pro o liscia.
Mentre col cavolo se la Ultra ne ha 16 e la liscia ne ha 8 la longevità è ben diversa.
Quindi mettete le frequenze di 200 Mhz in meno rispetto alla Ultra e/o mettete memorie pessime che non si alzano manco di 1 Mhz..ma la scheda castrata che non si azzardassero.
Cioè nVidia non ha mai adottato questa strategia con i suoi prodotti, penso e spero che non lo farà nemmeno ora.
Preferirei il Doppio Molex invece di una scheda castrata.
Thunder82
11-04-2004, 00:48
Originariamente inviato da Dark Schneider
Ma che poi io personalmente vi dico, non sono nemmeno uno che si mette ad overcloccare la scheda video. Cioè se prendo la 6800 liscia...al massimo per qlc test la spingo un po' su, ma poi la terrei sempre a default come frequenze. Come la mia 4200: dal 2002 ad ora l'avrò OC sarà si e no 2-3 volte per qlc minuto..per fare qlc test. Sennò sta sempre a default:250/500 Perchè? Semplicemente perchè tanto non mi cambia nulla se sta a default o overcloccata, nel senso che gioco ugualmente bene. E' poi perchè se una gpu di fascia alta è identica e le frequenze diverse...la longevità della scheda sarà identica. Per la serie una 9800XT non è più longeva di una 9800 Pro o liscia.
Mentre col cavolo se la Ultra ne ha 16 e la liscia ne ha 8 la longevità è ben diversa.
Quindi mettete le frequenze di 200 Mhz in meno rispetto alla Ultra e/o mettete memorie pessime che non si alzano manco di 1 Mhz..ma la scheda castrata che non si azzardassero.
Cioè nVidia non ha mai adottato questa strategia con i suoi prodotti, penso e spero che non lo farà nemmeno ora.
Sì, overclockando non si hanno grandi benefici in genere (max 10% circa), però è una questione psicologica! :D
Cmq io sono dell'idea che non bisogna scegliere un modello particolare di scheda, ma bisogna scegliere una ARCHITETTURA. All'interno della stessa architettura le differenze prestazionali sono piccole, invece da un'architettura all'altra possono cambiare enormemente. Della serie è inutile prendere la 9800XT quando c'è una scheda con la stessa architettura (9800pro) che va quasi uguale e costa la metà.
Thunder82
11-04-2004, 00:50
Purtroppo guardando anche la resa produttiva però mi sa che nVidia si è accorta che una scheda castrata aiuta a ottenere più chip funzionanti da un wafer...
Dark Schneider
11-04-2004, 00:58
Originariamente inviato da Thunder82
Sì, overclockando non si hanno grandi benefici in genere (max 10% circa), però è una questione psicologica! :D
Cmq io sono dell'idea che non bisogna scegliere un modello particolare di scheda, ma bisogna scegliere una ARCHITETTURA. All'interno della stessa architettura le differenze prestazionali sono piccole, invece da un'architettura all'altra possono cambiare enormemente. Della serie è inutile prendere la 9800XT quando c'è una scheda con la stessa architettura (9800pro) che va quasi uguale e costa la metà.
Si ma infatti per questo prediligo schede come la 4200.
Ma nVidia di solito non ha mai diversificato la fascia alta castrandola, quindi non credo che inizi da ora.
Poi ragà mi sto ricordando del tabellone del Cebit con l'informazione di MSI su NV40 e tra le specifiche ufficiali NON sotto NDA c'era scritto: 128/256 MB.
Non vorrei che la liscia ne avesse 128 MB e la Ulltra 256 MB. Spero in una duplice versione della liscia: una da 128 Mb ed una 256 MB. Insomma poi a scheda la devo tenere 2 anni....n'altra scheda da 128 MB non la voglio per camparci 2 anni.
No dico questo perchè tempo fa uscì un rumors sui prezzi: la Ultra guarda caso proprio i 499 di cui si parla da qlc giorno...che poi è il classico prezzo della Ultra. Mentre la liscia era messa a 299. Mi chiedo se magari questa a 299 possa essere la versione da 128 MB.
nirvanboy81
11-04-2004, 00:58
Originariamente inviato da Thunder82
Sì, overclockando non si hanno grandi benefici in genere (max 10% circa), però è una questione psicologica! :D
Cmq io sono dell'idea che non bisogna scegliere un modello particolare di scheda, ma bisogna scegliere una ARCHITETTURA. All'interno della stessa architettura le differenze prestazionali sono piccole, invece da un'architettura all'altra possono cambiare enormemente. Della serie è inutile prendere la 9800XT quando c'è una scheda con la stessa architettura (9800pro) che va quasi uguale e costa la metà.
Sarà, ma io con la mia 9700pro alzando il clock come vedete in sign le differenze riuscivo a vederle. Non raccontatemi che è solo una questione psicologica vedere il gioco fluido anche in quei frangenti in cui prima impercettibili scatti li vedevi. Ad esempio Colin3 col V-Sync attivato mi diventava più fluido perchè evitava i salti brutali da 60 a 30 fps e mentre in alcuni spezzoni potevo scendere anche sotto i 30 con l'overclock avevo SEMPRE il gioco fluido.
Garantito;)
... in attesa della nuova belva, che sia Ati o Nvidia poco importa, l'importante che spacchi di brutto e che sia XT!!:sofico:
Thunder82
11-04-2004, 01:03
Originariamente inviato da nirvanboy81
Sarà, ma io con la mia 9700pro alzando il clock come vedete in sign le differenze riuscivo a vederle. Non raccontatemi che è solo una questione psicologica vedere il gioco fluido anche in quei frangenti in cui prima impercettibili scatti li vedevi. Ad esempio Colin3 col V-Sync attivato mi diventava più fluido perchè evitava i salti brutali da 60 a 30 fps e mentre in alcuni spezzoni potevo scendere anche sotto i 30 con l'overclock avevo SEMPRE il gioco fluido.
Garantito;)
... in attesa della nuova belva, che sia Ati o Nvidia poco importa, l'importante che spacchi di brutto e che sia XT!!:sofico:
Quanto facevi al 3dmark03 prima di overclockare? Te lo dico io: circa 5000 punti. E dopo? Te lo dico ancora io: circa 5500 punti. Quanto hai guadagnato? Il 10%;) E' una cosa psicologica.
Dark Schneider
11-04-2004, 01:03
Originariamente inviato da nirvanboy81
Sarà, ma io con la mia 9700pro alzando il clock come vedete in sign le differenze riuscivo a vederle. Non raccontatemi che è solo una questione psicologica vedere il gioco fluido anche in quei frangenti in cui prima impercettibili scatti li vedevi. Ad esempio Colin3 col V-Sync attivato mi diventava più fluido perchè evitava i salti brutali da 60 a 30 fps e mentre in alcuni spezzoni potevo scendere anche sotto i 30 con l'overclock avevo SEMPRE il gioco fluido.
Garantito;)
... in attesa della nuova belva, che sia Ati o Nvidia poco importa, l'importante che spacchi di brutto e che sia XT!!:sofico:
Guarda che non centra. Cioè qui si parla in generale. Magari in quel gioco hai notato le differenze. Ma quando la tua scheda diverrà vecchia....avere le frequenze della 9700 liscia o della 9700 Pro non cambierà nulla in termini di fps. La 9700 liscia e la Pro sono due schede di eguale longevità. Quando non ce la farà più la liscia non ce la farà più nemmeno la Pro. E' questo che intendo.;)
nirvanboy81
11-04-2004, 01:10
Originariamente inviato da Dark Schneider
Guarda che non centra. Cioè qui si parla in generale. Magari in quel gioco hai notato le differenze. Ma quando la tua scheda diverrà vecchia....avere le frequenze della 9700 liscia o della 9700 Pro non cambierà nulla in termini di fps. La 9700 liscia e la Pro sono due schede di eguale longevità. Quando non ce la farà più la liscia non ce la farà più nemmeno la Pro. E' questo che intendo.;)
Beh si, in questo senso non posso che condividere la tua affermazione. Sono daccordo anch'io sul discorso che diventata vecchia una 9800, lo diventino anche la pro e la Xt ma dire che l'OC è solo una soddisfazione psicologica è tutt'altra cosa. [EDIT] ..soprattutto quando ti permette di salire parecchio e sulle memorie.. E cmq le differenze tra le varie versioni anche della stessa famiglia si notano soprattutto a filtri attivati. Anche qui però è vero che ciò non ne giustifica i 100-150 eurozzi uin più ma non è neanche giusto dire che non ci sono differenze visibili tra una liscia e una Xt. Assolutamente no:nonsifa:
Dark Schneider
11-04-2004, 01:11
Originariamente inviato da halduemilauno
ma lo sai si che fra poche ore tocca chiudere tutto e farne un'altro?
ciao.
;)
Si ma cmq già mi son messo daccordo con Raven quando proposi questo topic. Appena viene presentato faccio chiudere questo e apro quello ufficiale. :)
Thunder82
11-04-2004, 01:15
Originariamente inviato da Dark Schneider
Si ma cmq già mi son messo daccordo con Raven quando proposi questo topic. Appena viene presentato faccio chiudere questo e apro quello ufficiale. :)
Mi sa che ci sarà la gara a chi lo apre prima! :D
Però sarebbe una bella cosa se chi lo apre metta tutti i link, immagini e news raccolti nel thread nel primo post, sarebbe una bella cosa :)
Gustavo Dandolo
11-04-2004, 01:35
Originariamente inviato da xpiuma
Evabbé, perchè vuoi farla finita?? No dai!! :D
Esiste anche la teoria che le schede siano diverse per il numero di pipeline (parlo di liscia e ultra), ma mi sembra strano, a meno che...
A meno che il chip sia lo stesso, ma quelli con problemi (tipo gli R300 con difetti) vengano montati su le schede liscie, e la differenza tra 2xx milioni di transistor e 175 milioni potrebbero essere proprio le 8 pipe disattivate (o 4...).
ByeZ!
la mia mente vagava mentre leggeva il tuo post.. allora ho preso notepad e calcolatrice..
all'inizio avevo fatto questo calcolo "ad muzzum":
210:16=x:12
210x12
------=157
16
ma poi mi son detto mica può essere che tutti i transistor facciano parte delle pipeline di render.. quindi poniamo il caso che vi siano 150 milioni impiegati per far questo (stima forse troppo ottimistica):
150:16=x:12
150x12
------=112,5+60=172,5
16
volendo potrebbe pure starci una versione depotenziata con 12 pipeline.
Che bella cosa l'immaginazione ;)
Dark Schneider
11-04-2004, 01:46
Originariamente inviato da Thunder82
Mi sa che ci sarà la gara a chi lo apre prima! :D
Però sarebbe una bella cosa se chi lo apre metta tutti i link, immagini e news raccolti nel thread nel primo post, sarebbe una bella cosa :)
Ragazzi dai si tratta della mia amata scheda futura...fatelo aprire a me eheheheh!!!:sofico:
Cmq si bisogna ordinarlo per bene il primo post in modo che uno che entra sà dove trovare tutto le info...anche se il topic arriva alla pagina 150 per dire.:)
Gustavo Dandolo
11-04-2004, 01:47
Originariamente inviato da Dark Schneider
Ma che poi io personalmente vi dico, non sono nemmeno uno che si mette ad overcloccare la scheda video. Cioè se prendo la 6800 liscia...al massimo per qlc test la spingo un po' su, ma poi la terrei sempre a default come frequenze. Come la mia 4200: dal 2002 ad ora l'avrò OC sarà si e no 2-3 volte per qlc minuto..per fare qlc test. Sennò sta sempre a default:250/500 Perchè? Semplicemente perchè tanto non mi cambia nulla se sta a default o overcloccata, nel senso che gioco ugualmente bene. E' poi perchè se una gpu di fascia alta è identica e le frequenze diverse...la longevità della scheda sarà identica. Per la serie una 9800XT non è più longeva di una 9800 Pro o liscia.
Mentre col cavolo se la Ultra ne ha 16 e la liscia ne ha 8 la longevità è ben diversa.
Quindi mettete le frequenze di 200 Mhz in meno rispetto alla Ultra e/o mettete memorie pessime che non si alzano manco di 1 Mhz..ma la scheda castrata che non si azzardassero.
Cioè nVidia non ha mai adottato questa strategia con i suoi prodotti, penso e spero che non lo farà nemmeno ora.
Preferirei il Doppio Molex invece di una scheda castrata.
Anch'io son come te, testo la scheda solo quando l'acquisto per vederne il limite fisico, dopo qualche reboot e menate varie con i benchmark rimetto la scheda a frequenze default.
Invece c'è gente che acquista le schede, le modda, le tiene sempre con il vram più alto, frequenze assurde e le rivende.. io stai tranquillo che le acquisterò sempre nuove le schede e con due anni di garanzia.
Ps: tanto per essere sincero, le mie scheda funzionano quasi esclisivamente in 2D e facendo poco calcolo pesante, quindi vcore e frequenze di ram, scheda video, cpu ed altro son sempre al minimo storico, sarà ma il mio doppio Palomino e la mia 8500 girano sempre ad almeno 0.2v in meno di vcore e almeno ducento mhz in meno. Quando devo giocare con un click ripristino le frequenze di default, w pes3 ;)
Thunder82
11-04-2004, 01:49
Vabbè, per stavolta te lo lasciamo aprire! :D
Cmq spero che non si riduca come quello della 5900XT, 100 pagine di "allora è uscita?", "ma quanto costerà?", ecc... cioè, logico che ci sarà un po' di sta roba, ma bisogna non esagerare perchè le prime 100 pagine di quello della 5900XT davano alla nausea.
Norbrek™
11-04-2004, 01:50
Originariamente inviato da Thunder82
Vabbè, per stavolta te lo lasciamo aprire! :D
Cmq spero che non si riduca come quello della 5900XT, 100 pagine di "allora è uscita?", "ma quanto costerà?", ecc... cioè, logico che ci sarà un po' di sta roba, ma bisogna non esagerare perchè le prime 100 pagine di quello della 5900XT davano alla nausea.
Quoto, miraccomando gente voglio un topic altamente tecnico;) :sofico:
Dark Schneider
11-04-2004, 01:57
Originariamente inviato da Thunder82
Vabbè, per stavolta te lo lasciamo aprire! :D
Cmq spero che non si riduca come quello della 5900XT, 100 pagine di "allora è uscita?", "ma quanto costerà?", ecc... cioè, logico che ci sarà un po' di sta roba, ma bisogna non esagerare perchè le prime 100 pagine di quello della 5900XT davano alla nausea.
No no infatti è la prima cosa che metto in chiaro. Niente richiesta link, di pvt,ecc. si parla della scheda, parere sulla scheda, quindi le prestazioni della scheda trovati in rete, prestazioni della scheda posseduta personalmente,ecc. roba tecnica insomma.
Dark Schneider
11-04-2004, 02:00
Originariamente inviato da Gustavo Dandolo
Anch'io son come te, testo la scheda solo quando l'acquisto per vederne il limite fisico, dopo qualche reboot e menate varie con i benchmark rimetto la scheda a frequenze default.
Invece c'è gente che acquista le schede, le modda, le tiene sempre con il vram più alto, frequenze assurde e le rivende.. io stai tranquillo che le acquisterò sempre nuove le schede e con due anni di garanzia.
Ps: tanto per essere sincero, le mie scheda funzionano quasi esclisivamente in 2D e facendo poco calcolo pesante, quindi vcore e frequenze di ram, scheda video, cpu ed altro son sempre al minimo storico, sarà ma il mio doppio Palomino e la mia 8500 girano sempre ad almeno 0.2v in meno di vcore e almeno ducento mhz in meno. Quando devo giocare con un click ripristino le frequenze di default, w pes3 ;)
Mi trovo daccordo....te sei per il massimo risparmio dell'energia a quanto noto!!:D
Cmq viva Pes3 si!!:)
Norbrek™
11-04-2004, 02:02
Originariamente inviato da Dark Schneider
Mi trovo daccordo....te sei per il massimo risparmio dell'energia a quanto noto!!:D
Cmq viva Pes3 si!!:)
Io quando lascio il pc acceso a scaricare, setto le ram a 200mhz ddr, e il procio a 100*6@1,3V e abbasso il regime delle ventole, un bel risparmione:sofico:
Gustavo Dandolo
11-04-2004, 02:05
Originariamente inviato da Dark Schneider
Si ma infatti per questo prediligo schede come la 4200.
Ma nVidia di solito non ha mai diversificato la fascia alta castrandola, quindi non credo che inizi da ora.
[cut]
Non vorrei che la liscia ne avesse 128 MB e la Ulltra 256 MB
Guarda è vero che la differenza di prezzo è rilevante, anche troppo visto i nuovi rialzi delle ultime settimane, e di quelli che avverranno da qui in seguito, ma non credo e spero che tu non sia convinto che la differenza sarà dato solo da questo piccolo fattore.
Te lo dico chiaramente, la differenza in prestazioni sarà talmente umiliante che solo uno con soldi da buttare potrebbe optare per la seconda.
No dico questo perchè tempo fa uscì un rumors sui prezzi: la Ultra guarda caso proprio i 499 di cui si parla da qlc giorno...che poi è il classico prezzo della Ultra. Mentre la liscia era messa a 299. Mi chiedo se magari questa a 299 possa essere la versione da 128 MB.
Son triste se penso che io non acquisterò questi gioielli (intendo anche la serie X di ATi proprio perchè queste cifre per me se le possono tenere, così come non funzionano cpu da 300€ o peggio 400€. Son finiti i tempi quando mettevo mano al portafoglio per una Hercules da 1milione di lire!
Non lo dico soltanto perchè io le uso poco in 3D, ma perchè semplicemente c'è sempre il modo per poter aver prestazioni di non ultimissimo livello ma valide a ottimo prezzo.
Adesso per giocare bene cosa serve? una 9700, e se vedi il prezzo di una 9800Pro capisci da solo quanto è il loro valore. Sei mesi fa con una Ti4200 giocavi a TUTTO, e sei mesi ancora prima con una 8500, e son schede che nel periodo indicato le vedevi a 100€.
Cmq ritornando nel thread dei prezzi riferiti alle NV40, non credete di prendere queste schede a buon prezzo, schizzeranno alle stelle, costeranno più delle NV30 e NV35, statene certi.
TheDarkAngel
11-04-2004, 02:05
Originariamente inviato da Gustavo Dandolo
Anch'io son come te, testo la scheda solo quando l'acquisto per vederne il limite fisico, dopo qualche reboot e menate varie con i benchmark rimetto la scheda a frequenze default.
Invece c'è gente che acquista le schede, le modda, le tiene sempre con il vram più alto, frequenze assurde e le rivende.. io stai tranquillo che le acquisterò sempre nuove le schede e con due anni di garanzia.
Ps: tanto per essere sincero, le mie scheda funzionano quasi esclisivamente in 2D e facendo poco calcolo pesante, quindi vcore e frequenze di ram, scheda video, cpu ed altro son sempre al minimo storico, sarà ma il mio doppio Palomino e la mia 8500 girano sempre ad almeno 0.2v in meno di vcore e almeno ducento mhz in meno. Quando devo giocare con un click ripristino le frequenze di default, w pes3 ;)
concordo anch'io.. w il risparmio energetico...a
ah quella brutta gente...
Thunder82
11-04-2004, 02:06
Originariamente inviato da Norbrek™
Io quando lascio il pc acceso a scaricare, setto le ram a 200mhz ddr, e il procio a 100*6@1,3V e abbasso il regime delle ventole, un bel risparmione:sofico:
Ma da win o dal bios? Io vorrei farla da win sta cosa... è per questo che mi prendo l'NF7, da essedi costa 75€:sbav:
In teoria l'NF7 lo fa fare da win vero? con l'nForce System Utility.
Norbrek™
11-04-2004, 02:07
Originariamente inviato da Thunder82
Ma da win o dal bios? Io vorrei farla da win sta cosa... è per questo che mi prendo l'NF7, da essedi costa 75€:sbav:
In teoria l'NF7 lo fa fare da win vero? con l'nForce System Utility.
Io posso da win con l'msi core cell, ma lo faccio sempe da bios, è più figo:sofico:
Gustavo Dandolo
11-04-2004, 02:10
Originariamente inviato da Dark Schneider
Mi trovo daccordo....te sei per il massimo risparmio dell'energia a quanto noto!!:D
Cmq viva Pes3 si!!:)
Originariamente inviato da Norbrek™
Io quando lascio il pc acceso a scaricare, setto le ram a 200mhz ddr, e il procio a 100*6@1,3V e abbasso il regime delle ventole, un bel risparmione:sofico:
Originariamente inviato da TheDarkAngel
concordo anch'io.. w il risparmio energetico...a
ah quella brutta gente...
Non per nulla ho una Epia M9000 come muletto e box multimediale, 10W e ti passa la paura :oink:
Thunder82
11-04-2004, 02:11
Io invece di solito gioco con eMule aperto, e quando ho finito di giocare mi toccherebbe riavviare per andare nel bios a downclockare e perderei la coda :( :muro:
Norbrek™
11-04-2004, 02:12
Io gioco raramente con emule aperto, mi swappa troppo, poi ora che sto giocando a farcry è impensabile che lasci emule aperto:sofico:
Norbrek™
11-04-2004, 02:13
Cmq mi sembra che l'utility di cui parli permetta di variare il bus ma non il moltiplicatore.....
Thunder82
11-04-2004, 02:13
Originariamente inviato da Norbrek™
Io gioco raramente con emule aperto, mi swappa troppo, poi ora che sto giocando a farcry è impensabile che lasci emule aperto:sofico:
Beh, far cry è un discorso a parte, pensa che per giocarci io killavo pure explorer.exe :oink: :D
Norbrek™
11-04-2004, 02:13
Originariamente inviato da Thunder82
Beh, far cry è un discorso a parte, pensa che per giocarci io killavo pure explorer.exe :oink: :D
Pure io cosa credi, siamo professionisti qui:sofico:
Thunder82
11-04-2004, 02:14
Originariamente inviato da Norbrek™
Cmq mi sembra che l'utility di cui parli permetta di variare il bus ma non il moltiplicatore.....
Vabbè, metto di default 200x10.5, poi quando scarico porto il bus a 100 e il vcore al minimo possibile, mi viene fuori circa 1GHz a basso voltaggio, mi basta :) :D
Gustavo Dandolo
11-04-2004, 02:15
Originariamente inviato da Thunder82
Beh, far cry è un discorso a parte, pensa che per giocarci io killavo pure explorer.exe :oink: :D
io lo killerei per sempre.. :D
ps: ma sto far cry è così bello? mi consigliate di provarlo? sempre se gira su una 85000 :rolleyes:
Norbrek™
11-04-2004, 02:17
Originariamente inviato da Gustavo Dandolo
io lo killerei per sempre.. :D
ps: ma sto far cry è così bello? mi consigliate di provarlo? sempre se gira su una 85000 :rolleyes:
Sulla 85000 di certo!:sofico:
Cmq scherzi a parte sacrificando il dettaglio ti gira, anche perchè non vedi i ps2.0 che sono abbastanza pesantini...
Thunder82
11-04-2004, 02:20
Originariamente inviato da Gustavo Dandolo
io lo killerei per sempre.. :D
ps: ma sto far cry è così bello? mi consigliate di provarlo? sempre se gira su una 85000 :rolleyes:
A me è piacuto da morire :)
Con una 8500 dovrebbe girarti bene penso, a dettagli medi. Diciamo che come Gameplay (cioè stile di gioco) è un misto di Half-Life, Aliens Vs. Predator e altri, cmq a me è piaciuto molto perchè puoi eseguire le missioni in molti modi, puoi anche usare i veicoli (anche il deltaplano), ecc... :)
Caso mai prova il demo, anche se i demo a disposizione sono alquanto buggati e non rispecchiano appieno lo stile di gioco dei livelli più avanzati di far cry (dopo il 6-7 livello cominciano a vedersi i mostri modificati geneticamente, e fanno male :D )
Norbrek™
11-04-2004, 02:21
Originariamente inviato da Thunder82
(dopo il 6-7 livello cominciano a vedersi i mostri modificati geneticamente, e fanno male :D )
Fanno male si, azzo bisogna scaricare un caricatore intero per farne fuori uno:sofico:
Thunder82
11-04-2004, 02:23
Originariamente inviato da Norbrek™
Fanno male si, azzo bisogna scaricare un caricatore intero per farne fuori uno:sofico:
Vedrai alla fine, io negli ultimi 2 livelli ho dovuto usare il god per la disperazione! :cry: :D
Dark Schneider
11-04-2004, 02:32
Originariamente inviato da Gustavo Dandolo
Guarda è vero che la differenza di prezzo è rilevante, anche troppo visto i nuovi rialzi delle ultime settimane, e di quelli che avverranno da qui in seguito, ma non credo e spero che tu non sia convinto che la differenza sarà dato solo da questo piccolo fattore.
Te lo dico chiaramente, la differenza in prestazioni sarà talmente umiliante che solo uno con soldi da buttare potrebbe optare per la seconda.
Mah io la Ultra non la voglio prendere. Proprio perchè se appunto la liscia è uguale con solo frequenze più basse....la Ultra a che mi serve? Non vado a spendere manco morto 150-200 euro in più per una scheda che mi fa 4-5 fps in più della liscia. Sai che mi frega a fare lo sborone. Quello che spero io è che ci sia anche una duplice versione della liscia (mi pare per la 5900 liscia c'era anche in duplice versione), perchè voglio prendermi quella da 256 MB. Che adesso 128 MB basta e avanzano. Ma tra due anni...averne 256 MB è meglio...e poi con i filtri e roba simile avere un quantitativo maggiore è sempre meglio. 256 Mb sono inutili nelle schede di fascia non alta attualmente. Ma in quelle di fascia alta secondo me hanno senso perchè sono quelle che dureranno di più.
Son triste se penso che io non acquisterò questi gioielli (intendo anche la serie X di ATi proprio perchè queste cifre per me se le possono tenere, così come non funzionano cpu da 300€ o peggio 400€. Son finiti i tempi quando mettevo mano al portafoglio per una Hercules da 1milione di lire!
Non lo dico soltanto perchè io le uso poco in 3D, ma perchè semplicemente c'è sempre il modo per poter aver prestazioni di non ultimissimo livello ma valide a ottimo prezzo.
Adesso per giocare bene cosa serve? una 9700, e se vedi il prezzo di una 9800Pro capisci da solo quanto è il loro valore. Sei mesi fa con una Ti4200 giocavi a TUTTO, e sei mesi ancora prima con una 8500, e son schede che nel periodo indicato le vedevi a 100€.
Cmq ritornando nel thread dei prezzi riferiti alle NV40, non credete di prendere queste schede a buon prezzo, schizzeranno alle stelle, costeranno più delle NV30 e NV35, statene certi.
Beh io penso che bene o male una 6800 liscia da 256 MB possa costare sui 380-400 euro. Di solito son questi i prezzi della liscia. Oltre 500 la Ultra.
In realtà son più ottimista riguardo al prezzo in confronto a NV30 e NV35. NV30 Ultra (5800 Ultra) costava 600 euro...ma il costo alto era dovuto alle memorie DDR2 che allora erano ancora troppo costose. Il prezzo non poteva essere meno.
Il NV35 Ultra (5900 Ultra) anche 600 euro circa. Ma perchè? Perchè nVidia con il passo falso di NV30...ha cmq voluto immettere NV30 (uscito a marzo...con tanto ritardo di mesi e mesi) e doveva sostituirlo come da RoadMap con il NV35 in uscita in Maggio. Quindi la lentezza nel far sparire dai negozi un prodotto appena lanciato come il NV30 ha fatto si che il NV35 costasse tanto al debutto(pur avendo le DDR1).
Con la 5950 Ultra già ho visto un miglioramento: scheda che al lancio stava attorno ai 500 euro. Oh...ovviamente parlo in ambito nVidia. Poi Ati non so. O almeno spero... :) Per fortuna le DDR3 al debutto sono memorie non hanno un costo alto....al contrario delle DDR2 al lancio.
Cmq io la spesa grossa la faccio, cioè è la prima ed unica volta che farò sta spesa, sennò non ho mai speso tanto. Ho deciso che per una volta la faccio anche perchp tanto poi non compro più nulla per il pc per 2 anni. Al massimo a fine anno porto al ram ad 1 Gb...ma nient'altro. Non sono uno che insomma sta sempre lì a spendere per il pc. Quindi compro sto NV40 e poi non spendo più un centesimo per i prossimi due anni. :)
Thunder82
11-04-2004, 02:36
vado a nanna :ronf:
Buona Pasqua a tutti! :)
Dark Schneider
11-04-2004, 02:46
Originariamente inviato da Gustavo Dandolo
io lo killerei per sempre.. :D
ps: ma sto far cry è così bello? mi consigliate di provarlo? sempre se gira su una 85000 :rolleyes:
Figurati io sto sotto linux e quindi explorer manco so che è.
In win ci vado solo quando voglio giochicchiare con i giochi D3D.
Quelli OpenGL li faccio andare sotto linux. Tra l'altro ultimamente gioco a quelli OpenGL (tipo neverwinter nights in rete).
E' cmq quando sto soto windows uso sempre mozzilla firebird come browser!!:sofico:
Dark Schneider
11-04-2004, 02:47
Originariamente inviato da Thunder82
vado a nanna :ronf:
Buona Pasqua a tutti! :)
Buona Pasqua a tutti e vado a dormire pure io va. :)
:ronf:
buona pasqua a tutti.
ritornando all'allegato di pc maximum, ho notato con attenzione il core montato sopra la gpu con un solo molex e ad occhio (confrontandolo con la ram on board) è identico a quello visto nell'esemplare a doppio molex.
il dppio molex credo sia solo un accorgimento per non sovracaricare le piste sottili che sotto amperaggi alti si potrebbero bruciare....
Quindi credo che anche questo abbia 16pipes ma grazie a frequenze inferiori (magari quei 100 e passa mhz in meno) riesca a farsi bastare un molex, con frequenze superiori un molex in certe codizioni potrebbe non bastare più.
Sono ragionevolmente convinto che la strategia nvidia rimanga la stessa di sempre nv40 e nv40 ultra condivideranno la stessa architettura, nvidia metterà mani all'architettura e la cambierà solo con nv41 (per enthusiast) e relativi derivati.
Originariamente inviato da dwfgerw
http://www.theinquirer.net/images/articles/GF68002.jpg
http://www.theinquirer.net/images/articles/GF68001.jpg
http://www.theinquirer.net/images/articles/gf6800.jpg
la scheda è proprio brutta...:rolleyes:
speriamo non sia così....:(
Gustavo Dandolo
11-04-2004, 09:50
Originariamente inviato da Francvs
la scheda è proprio brutta...:rolleyes:
speriamo non sia così....:(
Come lo erano le ultime tre generazioni di nVIDIA :D
Certo che cmq è molto importante la forma e non come va! specialmente poi che la parte "vistosa" va posta in giù e non si vede neanche avendo una finestra nel case come me :rolleyes: :D
Originariamente inviato da Gustavo Dandolo
Come lo erano le ultime tre generazioni di nVIDIA :D
Certo che cmq è molto importante la forma e non come va! specialmente poi che la parte "vistosa" va posta in giù e non si vede neanche avendo una finestra nel case come me :rolleyes: :D
ti sembrerà anke un a cazz@ta ma per me oltre alle prestazioni conta anke molto l'aspetto.....e purtroppo se l'aspetto dovesse essere questo devo dire che è proprio urenda. :D
Magari spakkerà anke l' r420 o viceversa....ma rimane il fatto che è davvero brutta.....:p
Tieni presente ke è solo una reference board, probabilmente i produttori di skede customizzeranno il layout e il sistema di raffreddamento per rendere la scheda + "guardabile" (per esempio nella foto che girava un pò di tempo fa il pcb era rosso)
Dark Schneider
11-04-2004, 10:33
Originariamente inviato da Francvs
la scheda è proprio brutta...:rolleyes:
speriamo non sia così....:(
Questione di gusti. A me piace tantissimo.
Dark Schneider
11-04-2004, 10:36
Originariamente inviato da dwfgerw
buona pasqua a tutti.
ritornando all'allegato di pc maximum, ho notato con attenzione il core montato sopra la gpu con un solo molex e ad occhio (confrontandolo con la ram on board) è identico a quello visto nell'esemplare a doppio molex.
il dppio molex credo sia solo un accorgimento per non sovracaricare le piste sottili che sotto amperaggi alti si potrebbero bruciare....
Quindi credo che anche questo abbia 16pipes ma grazie a frequenze inferiori (magari quei 100 e passa mhz in meno) riesca a farsi bastare un molex, con frequenze superiori un molex in certe codizioni potrebbe non bastare più.
Sono ragionevolmente convinto che la strategia nvidia rimanga la stessa di sempre nv40 e nv40 ultra condivideranno la stessa architettura, nvidia metterà mani all'architettura e la cambierà solo con nv41 (per enthusiast) e relativi derivati.
Si ma quale sarà quella vera? Quella ad un molex o quella 2 molex? Magari nessuno dei due. O forse quella a 2 molex era un sample ancora non definitivo e con sistema di raffreddamento.
Dark Schneider
11-04-2004, 10:38
Originariamente inviato da Veghan
Tieni presente ke è solo una reference board, probabilmente i produttori di skede customizzeranno il layout e il sistema di raffreddamento per rendere la scheda + "guardabile" (per esempio nella foto che girava un pò di tempo fa il pcb era rosso)
A me anche se è così piace un sacco....preferibilmente la vorrei nera.
Cmq Asus e company sicuro la stravolgeranno.
a me la reference piace molto, molto di più della 5950 con quel dissi da cpu.
questa pur essendo un mostro da 200+mln di transistor ha un dissi molto umano e non occupa il secondo slot.
il materiale postato da the inquirer mi sembra quello ufficiale di propaganda nvidia, credo che sia proprio quella la versione finale che vedremo.
vi dico io la verita ... quella vera ha 10 molex tutt intorno :D
ed esige 3 alimentatori da 550 watt...
ahah
speriamo bene con sta scheda il mio case freme..
OKUTOBOY
11-04-2004, 11:34
Francamente del layout non me ne può fragare di meno.
Quello che conta è che macini pixel su pixel ed abbia prezzi "decenti".
Questo vale sia per nvidia che per ati.
halduemilauno
11-04-2004, 13:50
http://news.mydrivers.com/pages/images/20040409121523_99454.gif
http://news.mydrivers.com/pages/20040409121531_17315.htm
;)
Dark Schneider
11-04-2004, 14:01
Si l'avevo visto qualche giorno fa quel risultato. Penso sia della NV40.
Però la finestra del punteggio poteva abassarla un po'...così si vedeva da lontano che scheda era.:D
halduemilauno
11-04-2004, 14:07
Originariamente inviato da Dark Schneider
Si l'avevo visto qualche giorno fa quel risultato. Penso sia della NV40.
Però la finestra del punteggio poteva abassarla un po'...così si vedeva da lontano che scheda era.:D
nel link c'è la scheda.
mercoledi 14 ore 8.
ciao.
;)
Lord style
11-04-2004, 14:24
Però la finestra del punteggio poteva abassarla un po'...così si vedeva da lontano che scheda era.
Originariamente inviato da halduemilauno
nel link c'è la scheda.
mercoledi 14 ore 8.
ciao.
;)
E' una NV40.
Peccato per l'assenza del test sui ps 2.0:rolleyes:
Dark Schneider
11-04-2004, 15:30
Originariamente inviato da ballero
Peccato per l'assenza del test sui ps 2.0:rolleyes:
Non credo proprio che la NV40 soffre nei PS 2.0!! Al massimo sono una passeggiata.
Una GPU che almeno in teoria accellera gli shader 3.0, non credo proprio che abbia un qlc problema con i 2.0!
NV40 e R420 saranno le due schede perfette per i 2.0!!
dal fill rate si sarebbe potuto vedere effettivamente le 16 pipes, peccato non ci sia il valore.
Thunder82
11-04-2004, 16:23
Originariamente inviato da dwfgerw
dal fill rate si sarebbe potuto vedere effettivamente le 16 pipes, peccato non ci sia il valore.
Era già uscito un test, mi pare 7000MPixel in single texturing e 7400MTexel in multi texturing. Core a 475 MHz mi pare.
Originariamente inviato da Thunder82
Era già uscito un test, mi pare 7000MPixel in single texturing e 7400MTexel in multi texturing. Core a 475 MHz mi pare.
ma donna!! una cosa allucinante! saranno veritieri?
Thunder82
11-04-2004, 16:28
Originariamente inviato da umile
ma donna!! una cosa allucinante! saranno veritieri?
se ha 16 pipe è plausibile (fillrate max teorico 7600MPixel/Mtexel col core a 475)
Dark Schneider
11-04-2004, 16:29
Originariamente inviato da umile
ma donna!! una cosa allucinante! saranno veritieri?
Beh non lo so. Erano presi da quei famosi test condotti da un tizio che aveva una NV40 in sample A2. Magari erano tutti fake.
Quindi meglio prendere con le pinze tutti questi dati.
Io la mano sul fuoco non ce la metto fino all'ultimo minuto.
Anche se è vero che le immagini con quella qualità di FSAA e AF che aveva postato erano erano davvero notevoli.
Ma io prendo tutto con le pinze.
Cmq questi erano le immagini con FSAA 4X e AF 4X.
http://vegetto.vtrbandaancha.net/
Originariamente inviato da Dark Schneider
Beh non lo so. Erano presi da quei famosi test condotti da un tizio che aveva una NV40 in sample A2. Magari erano tutti fake.
Quindi meglio prendere con le pinze tutti questi dati.
Io la mano sul fuoco non ce la metto fino all'ultimo minuto.
Anche se è vero che le immagini con quella qualità di FSAA e AF che aveva postato erano erano davvero notevoli.
Ma io prendo tutto con le pinze.
Cmq questi erano le immagini con FSAA 4X e AF 4X.
http://vegetto.vtrbandaancha.net/
baH! nn vorrei dire una cazzata però la mia 9700 pro riesce ad avere una qualità tale
Thunder82
11-04-2004, 17:15
Originariamente inviato da umile
baH! nn vorrei dire una cazzata però la mia 9700 pro riesce ad avere una qualità tale
Forse con l'AA6x. Con l'AA4x l'R3xx sicuramente è un pelo sotto .
Dark Schneider
11-04-2004, 17:26
Originariamente inviato da umile
baH! nn vorrei dire una cazzata però la mia 9700 pro riesce ad avere una qualità tale
Mmmm però guarda io ho visto altrove dei confronti di una 9800 Pro AF 16X e FSAA 6X e praticamente era ancora leggemente inferiore all'FSAA 4X e AF 4X di questo "presunto" NV40.
Naturalmente dico di prendere con le pinze questi dati come questi screenshot per 2 motivi validi:
1) Può essere che il tizio spara caxxate e il sample non definitivo di NV40 in versione A2 in suo possesso non ce l'ha mai avuto.
2) Può essere che magari ha preso una 9800 Pro ha settato AF 16X e chessò FSAA 8X(mi pare sia il massimo settaggio della 9800 o e di più?) e la spaccia per un FSAA 4X e AF 4X di un sample A2 di NV40.
Thunder82
11-04-2004, 17:28
Originariamente inviato da Dark Schneider
Mmmm però guarda io ho visto altrove dei confronti di una 9800 Pro AF 16X e FSAA 6X e praticamente era ancora leggemente inferiore all'FSAA 4X e AF 4X di questo "presunto" NV40.
Naturalmente dico di prendere con le pinze questi dati come questi screenshot per 2 motivi validi:
1) Può essere che il tizio spara caxxate e il sample non definitivo di NV40 in versione A2 in suo possesso non ce l'ha mai avuto.
2) Può essere che magari ha preso una 9800 Pro ha settato AF 16X e chessò FSAA 8X(mi pare sia il massimo settaggio della 9800 o e di più?) e la spaccia per un FSAA 4X e AF 4X di un sample A2 di NV40.
O semplicemente ha usato Photoshop ;)
Sinceramente, guardandole meglio, quelle img sono troppo perfette... se sono vere, nVidia ha veramente fatto il miracolo (soprattutto per l'af, che pur essendo solo 4x si comporta come un 32x imho, ma anche per l'AA), ma penso proprio che photoshop ci abbia messo lo zampino.
Dark Schneider
11-04-2004, 17:42
Originariamente inviato da Thunder82
O semplicemente ha usato Photoshop ;)
Sinceramente, guardandole meglio, quelle img sono troppo perfette... se sono vere, nVidia ha veramente fatto il miracolo (soprattutto per l'af, che pur essendo solo 4x si comporta come un 32x imho, ma anche per l'AA), ma penso proprio che photoshop ci abbia messo lo zampino.
Guarda tutto può essere.
Dicono che che nVidia l'FSAA l'abbia migliorato tantissimo..non limitandosi a quella della Radeon..ma aggiungendo qlsina in più.
Però appunto tutto può essere, alla fine son dati da prendere con le pinze.
Ripeto io fino all'ultimo minuto avrò le mie idee...magari sbagliate...ma voglio restare con le mie idee. Tipo le 8 Pipeline. Poi se sarò smentito meglio. :) Ma ci vado coni piedi BEN piantati per terra!!;)
La cosa che più di tutti mi fa pensare poi sono i transistor: 222 milioni...a me sembrano un po' troppi davvero.
volevo chiedervi una cosa: dato che io tra un mesetto dovrei acquistare una nuova scheda video, e pensavo di orientarmi sulla fx5900 di nvidia volevo sapere se mi conviene acquistarla o aspettare l'avvento del famigerate nv40?
P.S. quanto costeranno all'inizio?
Dark Schneider
11-04-2004, 18:12
Originariamente inviato da Haku
volevo chiedervi una cosa: dato che io tra un mesetto dovrei acquistare una nuova scheda video, e pensavo di orientarmi sulla fx5900 di nvidia volevo sapere se mi conviene acquistarla o aspettare l'avvento del famigerate nv40?
P.S. quanto costeranno all'inizio?
Mi sa che fai prima a dirci il tuo budget massimo.
NV40 sarà parecchio superiore alla 5900. Certo se non puoi prenderlo...la 5900 va cmq bene.
Cmq quanto puoi spendere al max.
http://news.mydrivers.com/pages/20040409121531_17315.htm
Originariamente inviato da 9800XT
http://news.mydrivers.com/pages/20040409121531_17315.htm
E stata postata la pagina indietro, mentre io quell'immagine l'ho vista qualche giorno fà ;)
Dark Schneider
11-04-2004, 18:36
Originariamente inviato da Haku
sui 300€
Forse inizialmente la liscia considerando l'Iva costa di più. Inizialmente. Poi può essere tutto.
Ma non è che magari tra un mesetto metti qlc cosa in più da parte e puoi prendere a qlcsina in più?
Perchè ti dico a mio modesto parere in realtà può anche essere che una versione di NV40 liscia stia a 300 o poco più...se c'è una versione da 128 MB(ci sono probabilità)...e una scheda da 128 MB oggi non può essere venduta a troppo per quanto nuova sia. Temo che la liscia da 256 MB starà tra i 350 e i 400 inizialmente. La Ultra dai 500 in su.
Perchè guarda sennò se vuoi una 5900, ti consiglio di prenderla a zetabyte una POV 5900XT, visto che ci sono quelle che sono assicurate che si OC molto...e quindi può essere che raggiungi le frequenze di una 5950 Ultra. Costo della scheda attualmente 220-230 euro.
Però in effetti se già ti puoi spingere a 300 in effetti ti converrebbe NV40. Perchè sennò spendere 300 per una 5900 è eccessivo. Se devi prendertela...prenditi la 5900XT che ti ho consigliato. Ma se puoi spendere di più, il NV40 sarà su un altro pianeta...cmq ripagherà molto bene le spese.
Cmq manca un giorno e mezzo e sapremo tutto su NV40 in maniera ufficiale e per di più...scoprirermo i modelli lanciati e relativo prezzo.
Secondo me la 6800 Ultra, almeno nel primo mese, costera' sui 650 euro.;)
allora vediamo cosa succede tra qualche giorno con questo nv40.
Meglio aspettere e vedere prestazioni e prezzo dell'nv40.Non vorrei spendere 200/250€ per una fx5900 e poi pentirmene!
Dark Schneider
11-04-2004, 19:39
Originariamente inviato da ballero
Secondo me la 6800 Ultra, almeno nel primo mese, costera' sui 650 euro.;)
Ultimamente almeno in ambito nVidia sono migliorate: la 5950 Ultra è stata lanciata attorno ai 500 euro.
Son più ottimista riguardo al prezzo in confronto a NV30 e NV35. NV30 Ultra (5800 Ultra) costava 600 euro...ma il costo alto era dovuto alle memorie DDR2 che allora erano ancora troppo costose. Il prezzo non poteva essere meno.
Il NV35 Ultra (5900 Ultra) anche 600 euro circa. Ma perchè? Perchè nVidia con il passo falso di NV30...ha cmq voluto immettere NV30 (uscito a marzo...con tanto ritardo di mesi e mesi) e doveva sostituirlo come da RoadMap con il NV35 in uscita in Maggio. Quindi la lentezza nel far sparire dai negozi un prodotto appena lanciato come il NV30 ha fatto si che il NV35 costasse tanto al debutto(pur avendo le DDR1).
Le NV40 monteranno le DDR3 ma per fortuna queste memorie non sono costose!! :)
In ogni caso la versione "liscia" sia quando le Ultra stavano a 500 e sia a 600........le lisce più di 400 non ci son mai state al lancio.
Cmq più che altro ragà bisogna vedere un po' anche le marche: tipo se prendete Asus state certi che una liscia la paghere anche 80 euro in più del normale. Molto meglio andare su marche come POV.....che costano meno...e tra l'altro son meglio pure di Asus e Comapny. Sconsiglio di andare su marche con il nome...che c'hanno il nome ma poi non hanno nulla in più. Poi se parliamo della POV come da tradizione fa le schede super OC come tutti sanno.
halduemilauno
11-04-2004, 19:43
Originariamente inviato da halduemilauno
http://news.mydrivers.com/pages/images/20040409121523_99454.gif
http://news.mydrivers.com/pages/20040409121531_17315.htm
;)
fate un bel confronto.
http://service.futuremark.com/compare?2k3=2113980
è l'ex record del mondo.
;)
Thunder82
11-04-2004, 19:47
Cmq quell'immagine se è un fake è ben fatto. Ho provato a calcolare i punti con la famosa formula:
3DMark score = (GT1fps * 7.3) + (GT2fps * 37) + (GT3fps * 47.1) + (GT4fps * 38.7)
e il risultato è di 12514.22 punti, quindi ci siamo.
I fps nel GT1 fanno paura...
TheDarkAngel
11-04-2004, 19:53
Originariamente inviato da Thunder82
Cmq quell'immagine se è un fake è ben fatto. Ho provato a calcolare i punti con la famosa formula:
3DMark score = (GT1fps * 7.3) + (GT2fps * 37) + (GT3fps * 47.1) + (GT4fps * 38.7)
e il risultato è di 12514.22 punti, quindi ci siamo.
I fps nel GT1 fanno paura...
beh figurati se ki fa un fake nn ne tiene conto ;)
per quanto riguarda il boost di prestazioni vi ricordo quello che scrisse Trapanese di HIRC dopo aver visto nv40 nella saletta segreta del cebit http://www.hardwareirc.com/articoli.php?ID=211&Pag=17
parole dei commenti di Trapanese :
"Comunque si tratta di cose impressionanti, se vogliamo il salto sarà maggiore di quello che si è visto al tempo dell'R300"
quindi siamo in linea;)
Thunder82
11-04-2004, 20:03
Originariamente inviato da TheDarkAngel
beh figurati se ki fa un fake nn ne tiene conto ;)
è successo qualche volta! :D
TheDarkAngel
11-04-2004, 20:10
Originariamente inviato da Thunder82
è successo qualche volta! :D
va beh... i faker principianti ^^
Puo' darsi benissimo che sia falsa ;)
Io mi aspetto almeno 2mila punti in piu', basandomi su quanto disse tempo fa Fek :"Nv40 va 3 volte Nv35".
Originariamente inviato da ballero
Puo' darsi benissimo che sia falsa ;)
Io mi aspetto almeno 2mila punti in piu', basandomi su quanto disse tempo fa Fek :"Nv40 va 3 volte Nv35".
FEK parla a livello di esecuzione shader quando si dice che nv40 arriva ad essere anche 8 volte più veloce non si parla del 3d mark, fek il 3d mark non lo considera proprio, vieni da nvitalia e lo dovresti sapere bene se segui le sue discussioni tecniche.
Spesso è stato detto che nv40 grazie alle 16 pipes con 2 iunità FP per pipes possa essere dalle 4 alle 8 volte superiore a nv35 ma come ripeto nelle soluzioni ideali di elaborazione shader non negli fps, dove mediamente andrà il doppio ma non otto volte di più
Originariamente inviato da dwfgerw
FEK parla a livello di esecuzione shader quando si dice che nv40 arriva ad essere anche 8 volte più veloce non si parla del 3d mark, fek il 3d mark non lo considera proprio, vieni da nvitalia e lo dovresti sapere bene se segui le sue discussioni tecniche.
Spesso è stato detto che nv40 grazie alle 16 pipes con 2 iunità FP per pipes possa essere dalle 4 alle 8 volte superiore a nv35 ma come ripeto nelle soluzioni ideali di elaborazione shader non negli fps, dove mediamente andrà il doppio ma non otto volte di più
:confused: :confused:
Chi ha parlato di 8 volte o 4 volte????
Io mi sto riferendo ad una dichiarazione di Fek che parlava di una Nv40 che va 3 volte Nv35 come valore globale, di riferimento.
; che poi in alcune condizioni possa andare 8x Nv35 o 4x nv35 e' un altro paio di maniche.
Dark Schneider
11-04-2004, 20:32
Originariamente inviato da ballero
Puo' darsi benissimo che sia falsa ;)
Io mi aspetto almeno 2mila punti in piu', basandomi su quanto disse tempo fa Fek :"Nv40 va 3 volte Nv35".
Cmq il presidente nVidia ha detto il doppio...quindi 2 volte più veloce. In una delle poche dichiarazioni ufficiali su NV40 disse così.
Ovviamente però questa affermazione bisogna prenderla per situazioni estreme con filtri attivati,ecc. con i giochi pesanti,ecc. lì si che vedremo le nuove schede mostrare i muscoli. Poi inizialmente dovranno maturare anche i drivers.
Cioè ragà Nv40 non si può confrontare con giochi "leggeri" come quelli attuali. Il vero confronto bisognerà farlo con i giochi pesanti.
Diciamo che Far Cry come banco di prova è discreto.
Cmq proprio per questi motivi Vifani ed il Corsini hanno studiato nuovi test e nuovi metodi per misurare le prestazioni delle schede che verranno, proprio perchè come ha detto il Corsini l'attuale software a ste nuove schede le impegnano poco e niente.
Dark Schneider
11-04-2004, 20:42
Originariamente inviato da Thunder82
Cmq quell'immagine se è un fake è ben fatto. Ho provato a calcolare i punti con la famosa formula:
3DMark score = (GT1fps * 7.3) + (GT2fps * 37) + (GT3fps * 47.1) + (GT4fps * 38.7)
e il risultato è di 12514.22 punti, quindi ci siamo.
I fps nel GT1 fanno paura...
Beh anche negli altri test non scherza.
Tipo son andato sul sito Futuremark ed ho cercato tipo un tizio che ha un P4 3,2 Ghz e una 9800XT e che fa 6500 di punteggio e guardate i punteggi negli altri test anche. Pure negli altri c'è un bell'incremento: il doppio.
General Information
Operating System Microsoft Windows XP
DirectX Version 9.0b
Mobo Manufacturer http://www.abit.com.tw/
Mobo Model IS-10 (Intel 865G-ICH5)
AGP Rates (Current/Available) 8x / 4x, 8x
CPU Intel Pentium 4 3201 MHz
FSB 200 MHz
Memory 1024 MB
Display Information
Graphics Chipset ATI RADEON 9800 XT
Driver Name RADEON 9800 XT
Driver Version 6.14.10.6414
Driver Status WHQL - FM Approved
Video Memory 256 MB
Core Clock 419 MHz
Memory Clock 365 MHz
Sound Information
Sound Adapter Driver Name SB Audigy 2 Audio [A000]
Sound Adapter Driver Version 5.12.1.383
Benchmark Settings
Program Version 3DMark03 Revision 4 Build 0
Resolution 1024x768@32 bit
Texture Filtering Optimal
Pixel Processing / Antialiasing None
Post Processing false
Vertex Shaders Optimal
Main Test Results
3DMark Score 6501 3DMarks
CPU Score 633.0 CPUMarks
Detailed Test Results
Game Tests
GT1 - Wings of Fury 212.4 fps
GT2 - Battle of Proxycon 45.7 fps
GT3 - Troll's Lair 39.0 fps
GT4 - Mother Nature 36.8 fps
__M@ster__
11-04-2004, 22:02
quel bench da 12000 punti e passa è veramente da paura...!:eek: ..mamma mia se le nuove schede saranno cosi potenti quasi quasi ci faccio un pensierino!:D :sofico:
gandalfone
12-04-2004, 06:50
Allora domani ci sarà la presentazione ufficiale......ma.......ci saranno anche dei test?? e quando pensate si possano trovare sugli scaffali le 2 versioni di punta, diciamo la liscia e l'ultra??
ciao.
halduemilauno
12-04-2004, 09:13
ciao.
http://www.ixbt.com/short/2k4-04/nv40_card.jpg
http://www.digit-life.com/news.html?103799#103799
;)
Tanto vale aspettare fino a domani a questo punto :p
davvero una belva:sofico:
mamma mia e davvero un mostro!!:eek:
Fa proprio sperare bene!:D
Lord style
12-04-2004, 09:43
Originariamente inviato da halduemilauno
ciao.
http://www.ixbt.com/short/2k4-04/nv40_card.jpg
http://www.digit-life.com/news.html?103799#103799
;)
Mi sa che dobbiamo tutti ricominciare a tifare ATi per incoraggiarla. :muro: Con questa belva di nVidia da 12500 al 3dMark2003, con shader3.0 supportati e 400$ per la versione 6800ultra, l'ATi X800pro sarà dietro ad inseguire e avrà la strada in salita. Spero di sbagliarmi, spero che ATi abbia una soluzione all'altezza, la vedo dura però.
una cosa però non ho capito: quel famigerato punteggio si riferisce alla 6800 liscia o ultra?:confused:
halduemilauno
12-04-2004, 09:51
Originariamente inviato da Lord style
Mi sa che dobbiamo tutti ricominciare a tifare ATi per incoraggiarla. :muro: Con questa belva di nVidia da 12500 al 3dMark2003, con shader3.0 supportati e 400$ per la versione 6800ultra, l'ATi X800pro sarà dietro ad inseguire e avrà la strada in salita. Spero di sbagliarmi, spero che ATi abbia una soluzione all'altezza, la vedo dura però.
ati ha gia in cantiere una soluzione la X800XT che sarà presentata il 31 maggio. se poi sarà all'altezza è tutto da vedere.
le altre saranno presentate prima il 26 aprile.
ciao.
:) :)
ricominciare a tifare ati? perchè fino a ora...
Lord style
12-04-2004, 10:04
Originariamente inviato da halduemilauno
ati ha gia in cantiere una soluzione la X800XT che sarà presentata il 31 maggio. se poi sarà all'altezza è tutto da vedere.
le altre saranno presentate prima il 26 aprile.
ciao.
:) :)
ricominciare a tifare ati? perchè fino a ora...
Ultimamente stavo tifando nVidia, l'nv35 è palesemente dietro all'r350 e r360. Mi sa che abbiamo tifato troppo però, ecco il risultato: un mostro da 222 M di transistor, prestazioni notevoli, nuovi filtri più performanti ed efficaci qualitativamente parlando e nuovi shader supportati pienamente. La versione liscia a 300$ poi.
Sembra la vera erede dalla mia gloriosa GF4 TI4200
gandalfone
12-04-2004, 10:10
Ma dai......400 dollari, al cambio attuale 330 euro circa!! nn ci credo nemmeno se lo vedo;)
halduemilauno
12-04-2004, 10:15
Originariamente inviato da gandalfone
Ma dai......400 dollari, al cambio attuale 330 euro circa!! nn ci credo nemmeno se lo vedo;)
400$ negli USA sono sempre almeno 500€ qui da noi. e poi c'è la concorrenza.
ciao.
;)
__M@ster__
12-04-2004, 10:16
per la versione liscia ci può stare ma per la ultra penso che ci vorranno almeno 600euroz
gandalfone
12-04-2004, 10:24
Originariamente inviato da halduemilauno
400$ negli USA sono sempre almeno 500€ qui da noi. e poi c'è la concorrenza.
ciao.
;)
Concordo col tuo discorso.......ma ste cose mi fanno troppo inca@@are!! se il dollaro fosse in positivo su l'euro quanto costerebbe qui?? 1000 euro??
Sembra che il mercato finanziario e l'hw nn si caghino minimamente.......bah
cosworth6k
12-04-2004, 10:25
Ma il "famoso" bridge agp-pci exp è nascosto sotto il dissi? oppure è una soluzione nativa agp?
Lord style
12-04-2004, 10:35
Originariamente inviato da cosworth6k
Ma il "famoso" bridge agp-pci exp è nascosto sotto il dissi? oppure è una soluzione nativa agp?
La seconda.
ma la 6800 liscia sarà molto più potente delle sche video attuali di punta?Es:9800xt-5950 ultra
halduemilauno
12-04-2004, 10:45
Originariamente inviato da Haku
ma la 6800 liscia sarà molto più potente delle sche video attuali di punta?Es:9800xt-5950 ultra
certo che si.
;)
... lo vedremo con i bench dei giochi, il reale aumento... non certo col 3dmark...
(mo' salvo questo thread e quello su r420 per poter poi "confrontare" i rumors con i dati reali che si otterranno con le prove definitive... scommetto che mi divertirò! :p )
si può fare una comparazione con i valori attuali della 9800xt in 3d mark 2003 e il valore della 6800 qualche pagina addietro-12000 circa? :confused:
halduemilauno
12-04-2004, 10:58
Originariamente inviato da Haku
si può fare una comparazione con i valori attuali della 9800xt in 3d mark 2003 e il valore della 6800 qualche pagina addietro-12000 circa? :confused:
l'avevo gia postato a pagina 60. vai a vedere.
http://service.futuremark.com/compare?2k3=2113980
ciao.
;)
quindi teoricamente la differnza è più o meno di 2000 punti
Dark Schneider
12-04-2004, 11:11
Originariamente inviato da Haku
si può fare una comparazione con i valori attuali della 9800xt in 3d mark 2003 e il valore della 6800 qualche pagina addietro-12000 circa? :confused:
Allora ho preso a caso un tizio che ha fatto 6500 con un P4 3,2 Ghz e 9800XT (quindi una config con le palle). Naturalmente non ho preso il record mondiale perchè i confronti meglio farli con pc "normali".
GT1 - Wings of Fury 212.4 fps
GT2 - Battle of Proxycon 45.7 fps
GT3 - Troll's Lair 39.0 fps
GT4 - Mother Nature 36.8 fps
NV40 (GeForce 6800)
GT1 - Wings of Fury 453.3 fps
GT2 - Battle of Proxycon 83.4 fps
GT3 - Troll's Lair 71.8 fps
GT4 - Mother Nature 70.7 fps
Ma cmq ragà restiamo con i piedi per terra. Meglio vedere la differenza con i giochi.
Dark Schneider
12-04-2004, 11:16
Originariamente inviato da Haku
quindi teoricamente la differnza è più o meno di 2000 punti
Una 9800XT di solito fai sui 6000 punti.
Il 1008 con la 9800XT lì è stata fatto con la scheda super OC ed un P4 portato a 4,5 Ghz!!
Ammesso che anche il punteggio di NV40 NON sia stata fatta con un pc simile e con la scheda super OC...magari anche NV40 montata in un pc di quel tipo farebbe anche più di 12.000.
Ma cmq tutto può essere. Può essere che poi ne fa 2000 in più. E' cmq 2000 punti non sono mica pochi.
Ma cmq non andiamo a guardare granchè al 3d mark.
si hai ragione alla fine i bench servono a poco. Dovremmo averla in azione su qualche bel gioco tosto!
Domani verrà detto anche il prezzo delle 2 schede?
Dark Schneider
12-04-2004, 11:20
Originariamente inviato da Lord style
Ultimamente stavo tifando nVidia, l'nv35 è palesemente dietro all'r350 e r360. Mi sa che abbiamo tifato troppo però, ecco il risultato: un mostro da 222 M di transistor, prestazioni notevoli, nuovi filtri più performanti ed efficaci qualitativamente parlando e nuovi shader supportati pienamente. La versione liscia a 300$ poi.
Sembra la vera erede dalla mia gloriosa GF4 TI4200
Ragà consiglio caldamente di non condannare Ati ed il suo R420. Perchè sotterrarlo? R420 sarà un mostro di potenza come NV40 e sicuramente saranno sullo stesso livello.
... potenza dei rumors! :D
Quando doveva uscire nv30 sembrava dovesse spaccare il mondo (ricordate le frasi tipo "Ehhh... ci ha messo più di r300 perché è mooolto meglio!"... e infatti poi...) :asd:
Vi risulta davvero impossibile fare confronti tra le 2 schede DOPO che siano entrambe disponibili sul mercato?! :p
Originariamente inviato da Haku
....
Domani verrà detto anche il prezzo delle 2 schede?
se e vero che sta intorno ai 400$ cioè circa 330€ in italia cioè circa 400-450 per questo "presunto mostro" sarà da paura
:eek: :eek: :eek:
spero che il cambio pian piano cominci a favorici... perchè quaesta situazione non è giusta...:incazzed: :incazzed:
Dark Schneider
12-04-2004, 11:30
Originariamente inviato da gandalfone
Allora domani ci sarà la presentazione ufficiale......ma.......ci saranno anche dei test?? e quando pensate si possano trovare sugli scaffali le 2 versioni di punta, diciamo la liscia e l'ultra??
ciao.
Ci sarà la presentazione si ma in quell'evento non ci saranno test.
Però naturalmente il giorno stesso della presentazione o cmq il seguente ci saranno sicuramente test e preview della scheda di tanti siti. Visto che nVidia ha distribuito dei sample della scheda a parecchi siti hardware già da più di una settimana e quindi questi sicuramente saranno pronti appena ufficializzata la scheda ad immettere articoli con i primi test. :) Naturalmente bisognerà tenere conto anche dei drivers acerbi.
Sugli scaffali direi metà maggio in poi. Perchè magari può anche essere che ad inizio maggio già qlc le ha...ma stai pur certo che il prezzo sarà ben oltre superiore a quello ufficiale. Quindi meglio aspettare da metàmaggio in poi.
Dark Schneider
12-04-2004, 11:32
Originariamente inviato da Dix 3
se e vero che sta intorno ai 400$ cioè circa 330€ in italia cioè circa 400-450 per questo "presunto mostro" sarà da paura
:eek: :eek: :eek:
spero che il cambio pian piano cominci a favorici... perchè quaesta situazione non è giusta...:incazzed: :incazzed:
450 mi sembra esagerato per la liscia. Di solito la liscia sta sempre sui 380-400. Infatti quei 300$ bene o male qui saranno 380-400. 450 è un po' esagerato.....oddio a meno che qlc non va su Asus..beh quelli hanno il coraggio di piazzare anche la liscia anche ad un simile prezzo...a 50-80 euro in più rispetto ad altri. :D
Ma ragà invece io dico andiamo sulla POV: prezzi più bassi e alta qualità.;)
Dark Schneider
12-04-2004, 11:36
Originariamente inviato da Raven
... potenza dei rumors! :D
Quando doveva uscire nv30 sembrava dovesse spaccare il mondo (ricordate le frasi tipo "Ehhh... ci ha messo più di r300 perché è mooolto meglio!"... e infatti poi...) :asd:
Vi risulta davvero impossibile fare confronti tra le 2 schede DOPO che siano entrambe disponibili sul mercato?! :p
Cmq son fiducioso su NV40: il Corsini ha detto che il NV30 è stato solo un incidente di percorso e che è ormai un ricordo sbiadito e che nVidia ha davvero imparato dai propri errori.
Sinceramente mi fido pià delle sensazioni del Corsini che dei rumors.
Cmq fare confronti tra due schede ancora non presentate e emettere sentenze mi sembra sbagliato.
scusate ragazzi...ma la scheda non ha una normale uscita vga??? Dalle foto sembra che abbia solo due uscite dvi e 1 tv-out...:confused:
Originariamente inviato da Dark Schneider
Cmq son fiducioso su NV40: il Corsini ha detto che il NV30 è stato solo un incidente di percorso e che è ormai un ricordo sbiadito e che nVidia ha davvero imparato dai propri errori.
Questo lo spero anch'io! ;)
Originariamente inviato da Dark Schneider
Cmq fare confronti tra due schede ancora non presentate e emettere sentenze mi sembra sbagliato.
... su questo volevo insistere, infatti!
http://www.nvidiot.com/nv40.jpg
;)
se la scheda fosse quella devo dire che è davvero stupenda....
http://www.darkcrow.co.kr/Home/home.asp?idx=#3018
confermati i 222mln di transistor, frequenze intorno ai 400-500mhz.
16 pipes anche per la liscia che dovrebbe costare 299 $ :D
Originariamente inviato da dwfgerw
http://www.darkcrow.co.kr/Home/home.asp?idx=#3018
confermati i 222mln di transistor, frequenze intorno ai 400-500mhz.
16 pipes anche per la liscia che dovrebbe costare 299 $ :D
Quasi sicuramente la scheda e' quella.. ormai a un giorno di distanza non si trattano di fake.. pero' devo dire che non sopporto questo tipo di dissipatori come ovviamente non sopporto quello della 9800 XT.. ahhh.. bei cari vecchi tempi con il solo dissipatorino piu' ventolina..
:rolleyes:
Originariamente inviato da halduemilauno
ciao.
http://www.ixbt.com/short/2k4-04/nv40_card.jpg
http://www.digit-life.com/news.html?103799#103799
;)
:sbavvv: :ave: ...con il dissi lucido e davvero molto piu' bella....è piu' "macchina":asd: ...davvero un bel ferro :sbav: ...
sarebbe un sogno se la Ultra costasse 399$...questo vorebbe dire che in Italia costerebbe dai 440 ai 480€ :muro: ....ma in Germania +-saremmo intorno ai 400€ e in Svizzera intorno ai 350-380€ ....fra un mesetto dovrei propio andare in Svizzera:sofico: ....speriamo di trovarci già qualche bell'esemplare:sofico: ...magari anche una liscia a 270€:asd:
Originariamente inviato da Simon82
Quasi sicuramente la scheda e' quella.. ormai a un giorno di distanza non si trattano di fake.. pero' devo dire che non sopporto questo tipo di dissipatori come ovviamente non sopporto quello della 9800 XT.. ahhh.. bei cari vecchi tempi con il solo dissipatorino piu' ventolina..
:rolleyes:
non credo sia possibile continuare con dissi vecchia maniera dato il livello di integrazione raggiunto (222mln di transistor !!!)
anche ati con la X800XT se avrà 16 pipes adotterà qualcosa di molto simile.
Norbrek™
12-04-2004, 12:55
FP operations FP16, FP32
FP16,FP32 ma ancora non supporta FP24?
semmai è ati che ancora non supporta fp32....
per essere conformi ai pxel shader 3 ci vuole il supporto alla modalità 16-32, questo prevedono le DX ufficiali ecco perchè anche nv30 è stato ideato con il 16-32 in mente.
ATi invece non sarà conforme ai pixel shader 3.0 in quanto ha mantenuto la stessa precisione di r300
cmq 16x1 e 32x0....
quando si calcola solo il valore Z del pixel (questo accade spesso in doom III) può elaborare 32 pixel per passata !!!
halduemilauno
12-04-2004, 13:23
http://www.nvidiot.com/nv40.jpg
;)
vBulletin® v3.6.4, Copyright ©2000-2025, Jelsoft Enterprises Ltd.